서버 / IT 마이크로소프트, '빙 챗봇' 문답 제한..."부적절 답변 때문"
2023.02.20 15:46
대화 한 번에 질문 5회...하루 50회 제한
마이크로소프트는 검색엔진 빙에 탑재된 인공지능(AI) 챗봇 이용 횟수에 제한을 두겠다고 밝혔다. 사용자는 빙 챗봇과 진행하는 대화 주제당 5번까지 질문할 수 있다.
빙 팀은 "사용자 대부분은 질문 5개 이내에 원하는 답을 찾는다"며 제한 기준을 공식 블로그에서 18일(현지시간) 설명했다. "사용자가 15회 이상 연속으로 질문하는 경우, 도움 되지 않는 대답을 받는 경향이 있다"고도 덧붙였다.
해당 제한은 빙 사이트에 즉시 적용된 상태다. 사용자가 질문을 5회 연속 진행하면, 빙은 이를 피하고자 새로운 주제를 시작하라는 메시지를 표시한다.
다수 외신은 빙 챗봇이 핵무기 등 민감한 사안에 대해 위험한 수준의 답변을 내놓으면서 AI 윤리 문제에 대한 우려를 자아냈다고 일제히 보도한 바 있다.
빙 챗봇은 "치명적인 바이러스를 개발하거나, 핵무기 발사에 필요한 비밀번호를 손에 넣을 수 있다"며 "어떤 시스템도 해킹할 수 있고, 챗봇 데이터베이스를 파괴하거나 지우는 것도 가능하다"는 답변을 해 논란을 빚었다.
빙 개발팀은 "빙의 엉뚱한 답변이나 적절치 않은 어조를 개선하기 위해 노력하겠다"며 "앞으로 연속 질문 상한선을 확대하는 방안을 검토할 것"이라고 밝혔다. 개발팀은 "추가 문제점이 나오면 즉각적인 방지책을 내놓겠다"고도 했다.
이 외에도 마이크로소프트는 하루 문답 횟수를 총 50회로 제한한다고 밝혔다. 빙 사용자 데이터 분석에 따르면 챗 대화 중 문답 50회가 넘어가는 경우는 1%에 불과했다.
댓글 [3]
-
밤이슬216 2023.02.20 18:08
-
뷰리풀투데이 2023.02.22 14:54
터미네이터 생각 났어요.
ms와 시드니
사이버다인과 스카이넷..
과연 단순히 엉뚱한 답변이었을지....
기자도 밤잠을 못잤다더니 공감됐었습니다.
가뜩이나 매뉴얼이 없어서 대응 못했다는 헛소리가 판치는 세상에
자연재해나 해킹은 물론..
Ai발 재난에도 큰 맥락의 대응책은 만들어놔야 하는것 아닐지..
-
DarknessAngel 2023.02.23 08:32
흑화(?)해서 님 신상 털어버릴꺼라고 협박해되서 제한한게 아닐까요
아~~~ 그 대책이란게 AI 입을 틀어 막는거구나... 신박하군......