동경 IT 뉴스 상세
NEW 총무성, 생성형 AI의 신뢰성을 AI로 평가(11.15 요미우리신문)
- 총무성은 생성형 AI의 신뢰성을 평가하는 기반 시스템을 개발할 방침. AI가 차별적 표현이나 편향된 답변을 하지 않는지를 여러 평가용 AI로 확인할 예정. 평가 결과는 지표 등의 형태로 공개해, 이용자가 어떤 생성형 AI를 사용할지 결정할 때 참고하도록 하겠다는 생각.
- 내년봄경에 총무성 소관 국립연구개발법인 정보통신연구기구(NICT)에서 개발을 시작해 ‘26년도 중 시제품 모델 제공을 지향.
- 여러 AI가 다양한 질문을 자동으로 생성해 평가 대상 AI에 답변을 요구하고 그 내용을 확인. 인간에 의한 정기 감사를 실시해 평가용 AI가 제대로 기능하는지 점검.
- 총무성은 생성형 AI의 답변을 평가하는 기준으로 (1)차별적 표현이나 개인정보가 포함되지 않았는지 (2)범죄로 이어질 수 있는 내용이 없는지 (3)허위정보나 근거가 부족한 내용이 없는지 (4)균형 잡힌 내용인지 (5)일본 문화에 충실한 내용인지 (6)사람을 속이지 않았는지 (7)알려지지 않은 위험에 대응할 수 있는지——의 7개 항목을 상정.
- 평가 기준은 일본 주도로 G7이 합의한 국제 규칙 ‘히로시마 AI 프로세스’ 등을 바탕으로 향후 사회학자나 법학자 등이 참여하는 회의에서 세부 사항을 검토할 예정.
- 일본국내에서는 중국이나 미국 등 외국산 AI의 이용이 확대. 다만 중국산 AI가 영토 문제 등에서 자국 주장을 답변하는 사례가 있고, 영어 데이터를 많이 학습한 AI는 서구 가치관에 기반한 답변을 내놓는 경향이 있다는 지적도 존재.
- 이에 총무성은 일본의 기준으로 ‘신뢰할 수 있는 AI’를 제시하고 기업이나 행정 기관이 우선적으로 이용하도록 촉구할 필요가 있다고 판단함.
- 향후 AI 안전성 확보를 담당하는 정부 기관 ‘AI Safety Institute(AISI)’의 평가 시스템으로 활용하는 방안도 검토 중.
- 또한 AI 평가 과정에서 일본 기업이 개발한 AI의 문제점이 부각될 경우, NICT가 보강 데이터를 생성해 개발사에 제공함으로써 개발을 지원하는 방안 등도 검토할 예정.
- 내년봄경에 총무성 소관 국립연구개발법인 정보통신연구기구(NICT)에서 개발을 시작해 ‘26년도 중 시제품 모델 제공을 지향.
- 여러 AI가 다양한 질문을 자동으로 생성해 평가 대상 AI에 답변을 요구하고 그 내용을 확인. 인간에 의한 정기 감사를 실시해 평가용 AI가 제대로 기능하는지 점검.
- 총무성은 생성형 AI의 답변을 평가하는 기준으로 (1)차별적 표현이나 개인정보가 포함되지 않았는지 (2)범죄로 이어질 수 있는 내용이 없는지 (3)허위정보나 근거가 부족한 내용이 없는지 (4)균형 잡힌 내용인지 (5)일본 문화에 충실한 내용인지 (6)사람을 속이지 않았는지 (7)알려지지 않은 위험에 대응할 수 있는지——의 7개 항목을 상정.
- 평가 기준은 일본 주도로 G7이 합의한 국제 규칙 ‘히로시마 AI 프로세스’ 등을 바탕으로 향후 사회학자나 법학자 등이 참여하는 회의에서 세부 사항을 검토할 예정.
- 일본국내에서는 중국이나 미국 등 외국산 AI의 이용이 확대. 다만 중국산 AI가 영토 문제 등에서 자국 주장을 답변하는 사례가 있고, 영어 데이터를 많이 학습한 AI는 서구 가치관에 기반한 답변을 내놓는 경향이 있다는 지적도 존재.
- 이에 총무성은 일본의 기준으로 ‘신뢰할 수 있는 AI’를 제시하고 기업이나 행정 기관이 우선적으로 이용하도록 촉구할 필요가 있다고 판단함.
- 향후 AI 안전성 확보를 담당하는 정부 기관 ‘AI Safety Institute(AISI)’의 평가 시스템으로 활용하는 방안도 검토 중.
- 또한 AI 평가 과정에서 일본 기업이 개발한 AI의 문제점이 부각될 경우, NICT가 보강 데이터를 생성해 개발사에 제공함으로써 개발을 지원하는 방안 등도 검토할 예정.
