▶ 로이터 통신 보도…”AI가 스스로 복제 및 유출 가능성”

구글 로고[로이터=사진제공]
AI 챗봇 경쟁에 뛰어든 구글이 직원들에게 챗GPT와 같은 생성형 인공지능(AI) 사용에 주의를 당부하고 나섰다.
구글 모회사인 알파벳은 직원들에게 생성 AI에 회사 기밀 정보를 입력하지 말라고 경고했다고 로이터 통신이 4명의 소식통을 인용해 16일 보도했다.
구글이 경고한 생성 AI에는 전 세계적으로 큰 인기를 끌고 있는 오픈AI의 챗GPT와 함께 자사가 개발한 생성 AI 바드도 포함됐다.
구글은 최근 업데이트한 개인정보보호 지침에서도 "바드와 대화하는데 있어 비밀이 유지돼야 하거나 민감한 정보는 넣지 말라"고 했다고 소식통은 전했다.
이는 AI 개발 회사들이 이용자들이 보낸 메시지를 사용해 AI 챗봇의 언어 이해를 훈련시키기 때문이다.
이에 AI 개발 회사가 이용자의 채팅을 읽고 이용자 회사의 내부 정보를 볼 수 있고, 또 AI가 이를 스스로 복제하거나 유출할 수 있는 것으로 알려졌다.
구글은 또 엔지니어들에게 코드를 작성할 때도 AI 도구를 사용하지 말라고 주문했다. AI가 프로그래머들에게 도움이 될 수 있지만 바람직하지 않은 코드 제안을 할 수도 있기 때문이라고 설명했다.
앞서 월마트나 MS, 아마존 등도 구글과 같이 직원들에게 회사 중요 정보 유출과 관련해 경고를 한 바 있다. 챗GPT가 자사 내부 정보와 비슷한 답을 내놓는 것이 발견됐기 때문이라고 로이터 통신은 설명했다.
그러나 구글은 AI 챗봇 개발사라는 점에서 이번 주의가 다른 기업들보다 관심을 더 끈다고 통신은 전했다.
<연합뉴스>
댓글 안에 당신의 성숙함도 담아 주세요.
'오늘의 한마디'는 기사에 대하여 자신의 생각을 말하고 남의 생각을 들으며 서로 다양한 의견을 나누는 공간입니다. 그러나 간혹 불건전한 내용을 올리시는 분들이 계셔서 건전한 인터넷문화 정착을 위해 아래와 같은 운영원칙을 적용합니다.
자체 모니터링을 통해 아래에 해당하는 내용이 포함된 댓글이 발견되면 예고없이 삭제 조치를 하겠습니다.
불건전한 댓글을 올리거나, 이름에 비속어 및 상대방의 불쾌감을 주는 단어를 사용, 유명인 또는 특정 일반인을 사칭하는 경우 이용에 대한 차단 제재를 받을 수 있습니다. 차단될 경우, 일주일간 댓글을 달수 없게 됩니다.
명예훼손, 개인정보 유출, 욕설 등 법률에 위반되는 댓글은 관계 법령에 의거 민형사상 처벌을 받을 수 있으니 이용에 주의를 부탁드립니다.
Close
x