어쩌다 얼리어답터

삼성, 보안 우려로 챗GPT등 생성형AI 사용 금지령

어쩌다 얼리어답터 2023. 5. 2. 12:53
반응형

 

삼성은 보안 우려로 인해 직원들에게 ChatGPT, 구글 바드, 빙과 같은 인기 있는 생성 AI 도구의 사용을 금지한 것으로 알려졌습니다.

 

블룸버그 통신은 한국에 본사를 둔 이 회사가 월요일에 가장 큰 사업부 중 한 곳의 직원들에게 새로운 정책을 알렸다고 보도했습니다. 블룸버그는 AI 플랫폼에서 사용하는 데이터가 외부 서버에 저장되어 다른 사람에게 공개될 수 있다는 우려에서 나온 금지 조치라고 보도했습니다.

 

삼성은 직원들에게 "ChatGPT와 같은 생성형 AI 플랫폼에 대한 관심이 대내외적으로 커지고 있다"고 말했습니다. "이러한 관심은 이러한 플랫폼의 유용성과 효율성에 초점을 맞추고 있지만, 제너레이티브 AI로 인한 보안 위험에 대한 우려도 커지고 있습니다."

 

제너레이티브 AI는 지난 11월 소프트웨어를 작성하고 대화를 나누며 시를 작곡할 수 있는 강력한 AI 엔진에 기반한 챗봇인 OpenAI의 ChatGPT가 출시되면서 대중의 관심을 끌었습니다. Microsoft는 ChatGPT의 기술 기반인 GPT-4를 사용하여 Bing 검색 결과를 향상시키고, 이메일 작성 팁을 제공하고, 프레젠테이션을 작성하는 데 도움을 주고 있습니다.

 

이 새로운 정책은 AI와 관련된 위험에 대한 우려가 높아지는 가운데 나온 것입니다. 지난 3월, 수백 명의 기술 경영진과 AI 전문가들이 인류 사회에 대한 '심각한 위험'을 이유로 주요 인공지능 연구소에 AI 시스템 개발을 중단할 것을 촉구하는 공개 서한에 서명했습니다.

 

이 새로운 정책은 삼성 엔지니어가 ChatGPT에 업로드하여 내부 소스 코드를 실수로 유출한 후 나온 것이라고 메모는 밝혔습니다.

 

"본사는 직원의 생산성과 효율성을 향상시키기 위해 생성 AI를 안전하게 사용할 수 있는 보안 환경을 조성하기 위해 보안 조치를 검토하고 있습니다."라고 메모는 말했습니다. "그러나 이러한 조치가 마련될 때까지 제너레이티브 AI의 사용을 일시적으로 제한하고 있습니다."

 

블룸버그 통신은 새로운 규정에 따라 삼성 소유의 컴퓨터, 태블릿, 휴대폰에서 제너레이티브 AI 시스템 사용이 금지된다고 보도했습니다.

 

삼성은 논평 요청에 즉시 응답하지 않았습니다.

 

(소스 : 블룸버그, CNet)

반응형