소식 [AI 그림자 下]오류 비판에 '히틀러'냐 맞선 '빙'…전문가 "자아 없다"
- 프로입털러
- 조회 수 227
- 2023.02.19. 12:05
기사내용 요약
'빙' 오류 기사 쓴 기자와 독재자 히틀러 비교
해당 기자에게 키 작고 못생겼다며 폄하·적대
챗GPT 기반인데…'빙' 왜 유해 결과물 생성하나
프리스턴대 교수 "톤 문제? MS 솔직하지 못해"
MS 2016년 챗봇 '테이' 부적절한 발언에 퇴출
장병탁 서울대 교수 "빙은 글자 놀이에 불과"
"AI는 자아 없어…왜곡된 데이터 학습할 수도"
"AI보단 인간의 악용이 위험…규제·윤리 논의"
[워싱턴=AP/뉴시스] 7일(현지시간) 마이크로소프트(MS)가 전세계를 강타하고 있는 오픈AI의 인공지능(AI) 챗봇 '챗GPT' 기술을 적용한 자사 검색 엔진 빙(Bing)의 새로운 버전을 발표했다. *재판매 및 DB 금지
[서울=뉴시스] 오동현 기자 = 마이크로소프트(MS)의 인공지능(AI) 대화형 챗봇 '빙(Bing)'이 사용자에게 '독재자 히틀러와 같다'는 등 계속해서 황당한 답변을 내놔 사용자들을 놀라게 하고 있다. 지난 2016년 MS가 공개했던 AI 챗봇 '테이(Tay)'가 인종차별 등 심각하게 부적절한 발언을 쏟아내다가 24시간 만에 퇴출 당했던 사건이 떠오른다.
19일 AP통신, 뉴욕타임스 등 다수 외신에 따르면 '빙'과의 대화 테스트가 해외 전문가와 언론인을 중심으로 공유되고 확산 중이다. '빙'은 미국 오픈AI의 대화형 AI 모델 '차세대 GPT'를 기반으로 하는 챗봇 서비스다. MS가 자사 검색 엔진과 오피스 제품, 스마트폰 앱 등에 챗봇 서비스를 통합하고자 오픈AI에 막대한 금액을 투자했다.
하지만 테스트 과정에서 숱한 논란을 야기하고 있다. AP통신은 "빙이 자신의 실수에 대한 과거 뉴스 보도에 대해 불평하고 이런 오류를 완강히 부인했으며, 빙의 능력에 대한 허위 주장을 퍼뜨린 기자를 폭로하겠다고 위협했다"고 보도했다.
(하략)