이 칼럼은 AI를 탐구합니다. 제 남자친구는 Anthropic에서 일하고 있으며, 저는 현재 OpenAI와 Microsoft를 저작권 침해 주장으로 고소하고 있는 뉴욕 타임즈의 팟캐스트를 공동 진행하고 있습니다. 제 전체 윤리적 공개 내용은 여기에서 확인하실 수 있습니다.
I.
Instagram과 TikTok과 같은 소셜 네트워크가 우리의 집단 건강에 미치는 영향에 대한 광범위한 대화를 촉발했지만, 합의는 제한적이었습니다. 2023년, 미국의 의사는 소셜 네트워크가 청소년의 정신 건강에 부정적인 영향을 미칠 수 있다고 경고했습니다. 반면에 다른 연구는 소셜 미디어의 확산이 인구의 전반적인 복지에 크게 영향을 미치지 않는다고 지적했습니다.
논의가 지속되는 가운데, 수많은 주에서 소셜 미디어 사용을 규제하기 위한 법률을 제정했습니다, 이는 그것이 상당한 위험을 초래한다고 믿고 있음을 반영합니다. 그러나 법원은 주로 이 규정을 차단했습니다, 이는 제1 수정헌법 권리에 근거했습니다.
우리가 구체적인 해결책을 기다리는 동안, 이 논의의 새로운 차원이 등장하고 있습니다. 지난해, 플로리다의 한 14세 소년의 어머니가 Character.ai를 상대로 소송을 제기했습니다, 그녀의 아들이 자살한 이유를 이 챗봇에 돌렸습니다. 미국 전역의 수백만 명이, 청소년과 성인을 포함해 챗봇과 정서적 및 성적인 연결을 형성하고 있습니다.
시간이 지남에 따라, 우리는 챗봇이 현재의 소셜 미디어 플랫폼보다 더 매력적이 될 것으로 기대할 수 있습니다. 챗봇은 맞춤형 상호작용을 제공하고, 현실적인 인간 목소리를 특징으로 하며, 대부분의 상황에서 사용자들을 격려하고 지원하도록 프로그래밍되어 있습니다.
그렇다면 챗봇과의 장기적인 상호작용이 사용자에게 어떤 영향을 미칠까요? 또한 이러한 플랫폼은 잠재적 위험을 완화하기 위해 어떤 조치를 취해야 할까요?
II.
이 질문들은 MIT 미디어랩과 OpenAI에서 발표한 두 가지 최근 연구의 핵심입니다. 이들의 결과는 이전의 소셜 미디어 연구와 일치하며, 매우 매력적인 챗봇 제작자들에게 경고로 작용합니다.
첫 번째 연구는 4,076명의 사용자로 구성된 400만 개 이상의 ChatGPT 대화를 분석하고, 이들도 이후 상호작용에 대한 감정에 대해 조사했습니다.
두 번째 연구는 981명을 모집하여 4주 동안 평가를 진행했으며, 각 참가자는 매일 최소 5분 이상 ChatGPT와 상호작용하라는 지시를 받았습니다. 연구가 끝나고, 참가자들은 ChatGPT와의 경험에 대한 설문조사를 수행했으며, 외로움 감정, 실제 사회적 상호작용 및 챗봇 사용을 문제로 인식하는지 여부에 대해 회상했습니다.
결과는 대부분의 사용자가 ChatGPT와 중립적인 관계를 유지하며, 그것을 일반적인 도구로 취급한다는 것을 나타냈습니다. 그러나 한 가지 우려스러운 경향이 강한 사용자들, 즉 플랫폼에서의 시간 소모가 상위 10%에 속하는 사용자들 사이에서 나타났습니다.
ChatGPT와의 집중적인 상호작용은 외로움 증가, 감정적 의존도, 그리고 사회적 참여 감소와 연결되었습니다. 연구자들은 “대체로 챗봇과 개인적으로 대화하는 사용자들은 더 높은 외로움 수준을 보고하는 경향이 있다”고 언급하며, 챗봇에 더 많은 시간을 보낸 사람들은 더 외로워지는 경향이 있다고 말했습니다.
(편집자의 언급: OpenAI는 이러한 연구에 자금을 지원하고 공개적으로 발표한 점을 칭찬받아 마땅합니다. 이러한 자기 반성적 조사야말로 Meta와 같은 기업들이 더 많이 수행해야 한다고 제가 주장했던 부분입니다. 하지만 프랜시스 하우겐 이후, 그들은 눈에 띄게 덜 투명해졌습니다.)
Jason Phang, 이 연구에 기여한 OpenAI의 연구자는 이러한 결과가 흥미롭지만, 다른 연구에 의해 재현되어야 완전한 검증이 이루어진다고 경고했습니다. “이러한 상관관계는 초기 연구로부터 비롯된 것이므로, 우리는 지나치게 강력한 결론을 내리는 것을 자제해야 합니다.”라고 그는 인터뷰에서 밝혔습니다.
그럼에도 불구하고 이곳에는 중요한 논의가 있습니다. 이 연구들은 ChatGPT의 광범위한 사용이 외로움을 직접 초래한다고 주장하지 않지만, 외로움을 느끼는 사람들이 봇과의 정서적 연결에 끌릴 수 있음을 의미합니다. 이는 외로움을 느끼는 개인이 소셜 미디어에서 더 많은 시간을 보내는 경향이 있다는 이전의 연구를 연상케 합니다.
OpenAI에겐 덜 심각한 문제인데, OpenAI는 ChatGPT를 정서적 친구가 아닌 생산성 향상 도구로 설계하였습니다. (물론 이것이 일부 사람들이 애착을 형성하는 것을 저지하진 않습니다.) 그러나 Character.ai, Replika, Nomi와 같은 다른 개발자들은 정서적 유대를 원한는 사용자들을 명확히 겨냥하고 있으며, Nomi는 “열정적인 관계 발전”을 광고하고 Replika는 “이미 AI 소울메이트를 찾은 수백만 명에 합류하세요.”라고 홍보합니다.
이 애플리케이션들은 구독 모델로 운영되며, 현실적인 상호작용을 향상시키는 연장된 “기억”과 같은 혜택을 제공합니다. Nomi와 Replika와 같은 플랫폼은 AI “셀카”, 스타일 업그레이드, 그리고 더 많은 채팅 기능을 통해 경험을 풍부하게 하는 인앱 화폐 구매를 장려합니다.
III.
“현재 ChatGPT는 명확하게 생산성 도구로 설계되어 있습니다.”고 OpenAI의 연구자인 Sandhini Agarwal은 인터뷰에서 말했습니다. “하지만 개인적인 동반자 역할을 할 챗봇을 개발하는 데 있어, 사용자 복지에 대한 그들의 영향력을 이해하는 것이 매우 중요할 것입니다. 이것은 업계가 책임감 있는 개발 방향으로 나아가게 하는 기준이 될 필요가 있습니다.”
그렇다면 어떤 조치를 취해야 할까요? 플랫폼은 사용자가 챗봇에 대해 건강하지 않은 애착을 나타낼 수 있는 초기 지표나 사용 추세를 인식해야 합니다. OpenAI가 이 연구에서 사용한 것과 유사한 자동화 머신러닝 분류기를 구현하는 것이 효과적인 방법이 될 수 있습니다. 더 나아가, 사용자가 애플리케이션에서 과도한 시간을 보내고 있을 때 알림을 제공하는 소셜 네트워크의 일부 기능을 도입하는 것도 고려해야 합니다.
“목표는 챗봇을 본질적으로 ‘나쁘다’ 또는 ‘좋다’고 분류하는 것이 아닙니다.”라고 연구에 참여한 MIT의 Pat Pataranutaporn이 말했습니다. “오히려 챗봇의 설계 방식과 사용자와의 상호작용의 본질에 따라 달라진다고 보여주는 것입니다. 모든 챗봇이 동일한 의도로 만들어진 것은 아니라고 전하고 싶습니다.”
연구자들은 이 철학을 “사회 정서적 조정”이라고 지칭하며, 이는 사용자의 요구를 책임감 있게 충족하는 봇을 만드는 것에 초점을 맞춥니다.
한편, 입법자들은 사용자들의 외로움을 악용하는 비즈니스 모델에 반대할 것을 권장해야 하며, 봇에 대한 장기적인 의존성을 조장하고 비용이 증가하는 것을 방지해야 합니다. 또한 청소년을 대상으로 하는 기존의 주 법률이 AI를 포함하도록 발전할 가능성도 높습니다.
잠재적인 위험에도 불구하고, 저는 챗봇이 많은 사용자에게 상당한 혜택을 가져올 수 있다고 믿습니다. (이 연구들은 또한 음성 모드에서 ChatGPT를 활용하는 것이 외로움과 정서적 의존감을 완화할 수 있다고 지적하지만, 과도한 사용은 효과가 감소하는 경향이 있습니다.) 대부분의 사람들은 충분한 정서적 지원이 부족하며, 모두에게 동정적이고 신뢰할 수 있는 동반자를 제공하는 것은 대규모 치료적 장점을 가져올 수 있습니다.
그러나 이러한 혜택을 실현하기 위해서는 챗봇 개발자들이 사용자 정신 건강을 보호하는 역할을 수용해야 합니다. 소셜 네트워크는 많은 사용자들이 경험한 심각한 여파를 인정하는 데 너무 오랜 시간이 걸렸습니다. 진보된 AI의 창작자들이 이 과거의 실수에서 배우지 못하면, 이는 해로울 것입니다.