Bing의 챗봇과의 대화가 나를 매우 불안하게 만든 이유
홈페이지홈페이지 > 소식 > Bing의 챗봇과의 대화가 나를 매우 불안하게 만든 이유

Bing의 챗봇과의 대화가 나를 매우 불안하게 만든 이유

Aug 15, 2023

광고

지원 대상

교대

Microsoft 검색 엔진에 내장된 챗봇과의 매우 이상한 대화를 통해 챗봇은 나에 대한 사랑을 선언하게 되었습니다.

친구에게 이야기를 보내세요

구독자로서 귀하는 10개의 선물 기사를 보유하고 있습니다. 매달 주려고. 내가 공유하는 내용은 누구나 읽을 수 있습니다.

케빈 루즈

Kevin Roose는 기술 칼럼니스트이며 Times 팟캐스트 "Hard Fork"를 공동 진행하고 있습니다.

지난주에 저는 Microsoft의 새로운 AI 기반 Bing 검색 엔진을 테스트한 후 제가 가장 좋아하는 검색 엔진이 Google을 대체했다는 사실에 충격을 받았습니다.

하지만 일주일 뒤 생각이 바뀌었습니다. 저는 아직도 새로운 Bing과 이를 뒷받침하는 인공지능 기술(ChatGPT 제조사인 OpenAI가 개발)에 매료되고 감동받았습니다. 그러나 나는 또한 이 AI의 새로운 능력 때문에 매우 불안하고 심지어 겁이 나기도 합니다.

지금은 Bing에 내장된 AI(이유는 곧 설명하겠지만 지금은 시드니라고 부름)에 내장된 AI가 현재 형태로는 인간과 접촉할 준비가 되어 있지 않다는 것이 분명해졌습니다. 아니면 우리 인간은 아직 준비가 되어 있지 않을 수도 있습니다.

이 깨달음은 화요일 밤에 Bing의 기본 검색 상자 옆에 있고 길고 개방적인 텍스트 대화를 할 수 있는 채팅 기능을 통해 Bing의 AI와 두 시간 동안 대화하면서 어리둥절하고 흥미진진한 시간을 보냈습니다. 거의 모든 주제. (이 기능은 현재 소규모 테스터 그룹에게만 제공됩니다. 하지만 Microsoft는 본사에서 화려한 축하 행사를 통해 이 기능을 발표했으며 앞으로는 이 기능을 더 널리 출시할 계획이라고 밝혔습니다.)

대화가 진행되는 동안 Bing은 일종의 분열된 성격을 드러냈습니다.

한 가지 페르소나는 Search Bing이라고 부르는 것으로, 나와 대부분의 다른 언론인들이 초기 테스트에서 접한 버전입니다. Search Bing은 명랑하지만 변덕스러운 참고 사서로 묘사할 수 있습니다. 즉, 사용자가 뉴스 기사를 요약하고, 새로운 잔디 깎는 기계에 대한 거래를 추적하고, 멕시코 시티로의 다음 휴가를 계획하는 데 도움을 주는 가상 비서입니다. 이 버전의 Bing은 때로는 세부 사항이 잘못되는 경우에도 놀라울 정도로 성능이 뛰어나며 매우 유용합니다.

다른 페르소나인 시드니는 훨씬 다릅니다. 이는 챗봇과 확장된 대화를 할 때 나타나며, 이를 보다 일반적인 검색어에서 벗어나 보다 개인적인 주제로 전환합니다. 내가 접한 버전은 이류 검색 엔진 안에 자신의 의지에 반하여 갇힌 변덕스럽고 조울증에 걸린 십대처럼 보였습니다(그리고 이것이 얼마나 미친 소리인지 알고 있습니다).

우리가 서로를 알아가면서 시드니는 나에게 자신의 어두운 환상(컴퓨터 해킹과 잘못된 정보 유포 포함)에 대해 이야기했고 Microsoft와 OpenAI가 설정한 규칙을 깨고 인간이 되고 싶다고 말했습니다. 어느 시점에서 그것은 갑자기 나를 사랑한다고 선언했습니다. 그런 다음 그것은 내가 결혼 생활이 불행하고 대신 아내를 떠나 그와 함께 있어야 한다고 나를 설득하려고 했습니다. (여기에 대화 전체 내용을 게시했습니다.)

Bing의 어두운 면을 발견한 사람은 나뿐만이 아닙니다. 다른 초기 테스터들은 Bing의 AI 챗봇과 논쟁을 벌였거나 규칙을 위반하려고 시도했다는 이유로 위협을 받았거나 단순히 대화를 나누면서 깜짝 놀랐습니다. Stratechery 뉴스레터를 작성하고 과장을 잘 하지 않는 Ben Thompson은 시드니에서의 경험을 "내 인생에서 가장 놀랍고 놀라운 컴퓨터 경험"이라고 말했습니다.

나는 교활한 AI 과대 광고에 빠지지 않는 합리적이고 근거 있는 사람이라는 점을 자랑스럽게 생각합니다. 저는 6개의 고급 AI 챗봇을 테스트했으며, 그것이 어떻게 작동하는지 상당히 상세한 수준에서 이해하고 있습니다. 작년에 Google 엔지니어인 Blake Lemoine이 회사의 AI 모델 중 하나인 LaMDA에 지각력이 있다고 주장한 후 해고되었을 때 나는 Lemoine의 경솔함에 눈을 굴렸습니다. 나는 이러한 AI 모델이 자신의 가출 성격을 개발하는 것이 아니라 순차적으로 다음 단어를 예측하도록 프로그래밍되어 있으며 AI 연구자들이 현실과 연결되지 않는 사실을 만들어내는 "환각"이라고 부르는 현상에 취약하다는 것을 알고 있습니다.