소식 삼성, 개인정보 유출 사고 후 직원들의 생성 AI 사용 금지(번역)
- BarryWhite
- 조회 수 708
- 2023.05.02. 22:49
삼성은 회사의 가장 큰 부서 중 한 곳의 직원이 내부 소스 코드를 ChatGPT의 서버에 업로드한 것으로 알려지면서 ChatGPT와 구글의 바드와 같은 생성형 AI의 사용을 금지했습니다. 이 정보는 블룸버그 보고서에서 나온 것입니다.
삼성은 직원들에게 내부 메모를 통해 새로운 정책을 발표했습니다. 이 정책은 회사 소유의 휴대폰, 컴퓨터, 태블릿은 물론 내부 네트워크에서 생성형 AI 시스템을 사용하는 것을 금지합니다. 또한 삼성은 직원들에게 개인 기기를 통해 ChatGPT 또는 이와 유사한 서비스로 회사 정보를 누설하지 말 것을 요청합니다.
그 근거로 삼성은 이러한 AI 플랫폼이 외부 서버를 사용하여 데이터의 전부는 아니더라도 일부를 저장하기 때문에 보호하거나 삭제하기 어렵다는 사실을 지적합니다. 삼성의 정책을 준수하지 않는 직원은 징계를 받거나 직장을 잃을 수 있습니다.
삼성은 JP모건 체이스, 뱅크오브아메리카, 씨티그룹 등 유명 기업들이 개인정보 보호 문제로 ChatGPT 사용을 금지하거나 제한하는 가운데 가장 최근에 이러한 조치를 취한 기업입니다.
블룸버그는 또한 삼성이 문서 번역과 요약, 소프트웨어 개발을 위한 자체 AI 도구를 개발 중이라고 보도했습니다.
물론 삼성의 금지 조치는 민감한 데이터를 취급하는 직원들에게만 적용됩니다. 삼성 휴대폰이나 기타 디바이스를 가진 사람이라면 누구나 제너레이티브 AI를 자유롭게 사용할 수 있습니다. 실제로 Bing AI는 현재 삼성 갤럭시 휴대폰에 내장된 SwiftKey 키보드의 일부로 공식적으로 탑재되어 있습니다.
내장된 SwiftKey 키보드를 사용하는 사용자는 이제 키보드의 검색 탭에서 OpenAI 기반 Bing AI를 사용할 수 있습니다.