챗봇 GPT와 대화하면 정보 유출 당한다? 美 기업들, 챗봇주의보 발령

- 월마트, 아마존, JP모건, MS 등 美 대기업들, 직원들에 “챗봇과 대화 유의”
- 기술·정보 유출 우려로 챗봇 GPT 사용 제한 지침 마련... 챗 GPT 스스로도 해당 위험 인정

미국 제1의 대형마트 체인인 월마트가 직원들에게 챗봇 GPT의 사용을 제한하는 내용의 지침을 내렸다. 지난달 28일(현지시간) 월마트는 직원들에게 생성형 인공지능(AI) 챗봇인 GPT의 사내 접속을 차단했다가 해제했다는 내용과 함께 GPT 사용 지침을 공지했다.



월마트가 직원들에게 공지한 지침을 살펴보면 ▼ 민감 혹은 기밀인 독점적 성격의 정보를 챗 GPT에 입력하지 말 것 ▼정책, 전략 등을 포함한 월마트의 사업 관련 정보를 입력하지 말 것 ▼ 월마트 프로그래맹 코드를 복사해 챗GPT에 붙여넣거나 챗GPT를 이용해 새로운 코드를 만들지 말 것 등의 내용이 포함되어 있다.

월마트 측은 이 같은 지침을 내린 이유에 대해 “월마트의 정보를 챗 GPT와 같은 AI 도구에 입력했을 때 회사 기밀이 인터넷 공안을 통해 유출될 우려가 있을 뿐만 아니라 제품 및 콘텐츠에 대한 권리가 침해될 수 있다”고 설명했다.

사실 챗 GPT의 이용을 제한하는 지침은 월마트 뿐만 아니라 미국 대부분의 기업들이 가지고 있으며 아예 접속 자체를 막는 회사도 늘어나고 있다. 뉴욕과 시애틀 등 공립학교들이 학생들의 표절과 대리 작성 등 가능성을 사전에 방지하기 위해 교내 챗GPT 사용을 불허한 것에 이어 기업들까지도 ‘GPT 주의보’를 내리는 모양새다.

가장 적극적으로 활용을 막고 있는 쪽은 민감 정보를 주로 다루는 금융투자업계이다. 고객의 개인정보 등 유출될 시 대형 사고로도 이어질 수 있는만큼 JP모건, 골드만 삭스, 뱅크오브아메리카(BoA), 씨티그룹 등은 직원들의 챗GPT의 사용을 금지했다. 정보유출 뿐만 아니라 챗 GPT를 사용하다 보면 지나치게 의존해 고객에게도 부정확한 정보를 제공할 우려도 고려됐다. 미국의 3대 통신사 중 하나인 버라이즌도 비슷한 이유로 직원들의 GPT 사용을 금지했다.

마이크로소프트(MS)와 아마존도 직원들에게 주의를 당부했다. MS가 챗GPT 개발사인 오픈AI에 100억 달러 이상을 투자했고 챗GPT 기반 언어 모델을 가져와 빙 챗봇을 개발했다는 것을 감안하면 의아한 결정이다. MS와 아마존은 기밀 유출 가능성뿐 아니라 자기 회사의 데이터가 챗GPT의 학습에 이용될 수 있다는 점을 우려한 것으로 알려지고 있다.

미국 기업들의 이런 정보유출 우려는 사실 챗 GPT 스스로도 인정하고 있는 부분이다. 실제로 챗 GPT에게 “이용자가 입력하는 내용이 너의 학습에 도움이 되느냐”고 물어보면 GPT는 “그렇다. 나는 훈련을 통해 다양한 데이터를 수집하고 이를 기반으로 작동한다”고 답한다. 다만 “개인정보나 식별이 가능한 정보를 수집하거나 저장하지는 않는다”고 덧붙인다.

그러나 워싱턴대 전산언어학자 에밀리 벤더 교수는 “챗 GPT의 엄청난 성장속도를 감안할 때 오픈AI(챗 GPT 제작사)가 데이터에서 개인정보만을 완전히 식별해 내 구분하는 것은 불가능하다고 볼 수 있다”고 설명했다.

<저작권자 ⓒ 의사나라뉴스, 무단 전재 및 재배포 금지>