▶ AI 윤리·신뢰성 확보 추진계획
▶ 챗GPT AI 부작용 우려 선제 대응, 편향성 등 12월부터 신뢰성 평가…AI 생성물 워터마크 도입 추진
네이버, SK텔레콤, KT, LG 등 기업들이 개발한 초거대 인공지능(AI) 모델의 신뢰성을 평가하는 시스템이 조만간 마련된다. 정부는 기업들의 참여를 지원함으로써 챗GPT 등장을 계기로 떠오른 AI 윤리와 신뢰성 문제에 선제적으로 대응할 계획이다.
과학기술정보통신부는 25일 서울 강서구 LG사이언스파크에서 개인정보보호위원회와 네이버, SK텔레콤, KT, 카카오, LG AI 연구원 등 초거대AI 개발 기업들이 참석한 ‘제4차 AI 최고위 전략대화’에서 ‘AI 윤리·신뢰성 확보 추진계획’을 발표했다.
AI 최고위 전략대화는 정부와 민간이 반기마다 모여 국가 AI 경쟁력 강화 방안을 논의하는 협의체로, 이번에는 AI 윤리와 신뢰성에 대한 계획이 마련됐다. 초거대AI는 슈퍼컴퓨터를 활용해 연산속도를 크게 향상시킨 모델로, 최근에는 다량의 데이터 학습을 통해 인간 수준의 대화나 그림 그리기 등 새로운 결과물 도출이 가능한 생성형 AI 서비스를 구현하는 데 주로 쓰인다. 다만 이런 AI 서비스는 개인정보를 침해하거나 잘못된 정보를 확산하는 부작용이 있는 만큼 정부가 나서서 대응하겠다는 것이다.
정부는 AI 윤리와 신뢰성 지표인 ‘AI 민주적 가치지수’에서 1위를 유지하고 지난해 11위였던 옥스퍼드 인사이트의 ‘정부 AI거버넌스와 윤리’ 순위를 5위로 끌어올리겠다는 목표를 제시했다. 이를 실현하기 위해 ‘민간 자율 AI 윤리·신뢰성 확보 지원’, ‘세계를 선도하는 AI 윤리·신뢰성 기술·제도적 기반 마련’, ‘사회 전반 책임 있는 AI 의식 확산’ 등 3대 추진과제를 마련했다.
특히 ‘세계를 선도하는 AI 윤리·신뢰성 기술·제도적 기반 마련’ 과제에는 올해 12월부터 생성형 AI 기업을 대상으로 초거대AI 모델의 신뢰성을 평가하는 시스템 마련 계획이 포함됐다. 인증전문기관을 통해 기업들이 자발적으로 검·인증을 받고 정부가 기업들의 참여를 지원하는 방식으로 시행될 예정이다. 이를 위해 편향적이거나 차별적인 콘텐츠를 차단하는 ‘공평성’, AI가 잘못된 정보를 도출하는 환각 현상을 막고 정보 출처를 관리하는 ‘사실 정확성’를 포함해 ‘출처 적정성’과 ‘활용 적합성’ 등 신뢰성 측정을 위한 데이터를 다음달까지 구축한다.
정부는 다음달부터 AI 생성물을 표시하는 워터마크 도입을 검토 중이다. 워터마크 도입은 우선 기업들에게 권고하는 방식으로 시행하고 향후 단계적으로 의무화하는 방안을 추진한다. 내년부터는 ‘고위험 AI’를 판단하는 기준을 마련하는 판현, AI의 편향성·불투명성·오작동 등에 대응하기 위한 기술 개발도 2027년까지 220억 원 규모로 이뤄질 예정이다.
‘민간 자율 AI 윤리·신뢰성 확보 지원’을 위해 정부는 다음달부터 생성형 AI 서비스 분야별 가이드라인을 마련하거나 확대한다. 정부는 AI 위험요인을 진단하고 개선방안을 제공하는 컨설팅, 신뢰성이 우수한 AI에 대한 시상, 국내·국제표준 제정 등 관련 제도 도입도 추진하기로 했다.
<
김윤수 기자>
댓글 안에 당신의 성숙함도 담아 주세요.
'오늘의 한마디'는 기사에 대하여 자신의 생각을 말하고 남의 생각을 들으며 서로 다양한 의견을 나누는 공간입니다. 그러나 간혹 불건전한 내용을 올리시는 분들이 계셔서 건전한 인터넷문화 정착을 위해 아래와 같은 운영원칙을 적용합니다.
자체 모니터링을 통해 아래에 해당하는 내용이 포함된 댓글이 발견되면 예고없이 삭제 조치를 하겠습니다.
불건전한 댓글을 올리거나, 이름에 비속어 및 상대방의 불쾌감을 주는 단어를 사용, 유명인 또는 특정 일반인을 사칭하는 경우 이용에 대한 차단 제재를 받을 수 있습니다. 차단될 경우, 일주일간 댓글을 달수 없게 됩니다.
명예훼손, 개인정보 유출, 욕설 등 법률에 위반되는 댓글은 관계 법령에 의거 민형사상 처벌을 받을 수 있으니 이용에 주의를 부탁드립니다.
Close
x