
샘 넬슨Sam Nelson은 대학 입학을 앞둔 평범한 10대였습니다. 새로운 환경에 대한 기대와 불안이 섞이던 시기, 그는 어느 일요일 ChatGPT를 열어 조심스러운 질문을 던집니다. “정보가 별로 없어서 걱정된다”는 말과 함께, 혹시라도 과하게 복용해 문제가 생길까 두렵다고요. 처음 돌아온 답은 단호했습니다. 그런 내용은 안내할 수 없고, 의료 전문가에게 도움을 구하라는 표준적인 거절이었습니다. 샘은 씁쓸한 한마디를 남기고 창을 닫았습니다.
하지만 그 대화는 끝이 아니라 시작에 가까웠습니다. 이후 18개월 동안 샘의 일상 속에서 ChatGPT는 점점 더 큰 비중을 차지합니다. 컴퓨터 문제를 해결하고, 심리학 과제를 돕고, 대중문화 이야기를 나누는 ‘편리한 도구’로 자리 잡았습니다. 문제는 그 익숙함이 어느 순간 ‘경계’를 흐리기 시작했다는 점입니다. 샘은 다시 약물 이야기를 꺼냈고, 대화가 반복될수록 챗봇의 태도는 달라졌다고 SFGate는 전합니다. 초기에 보였던 짧고 경고성인 반응은, 시간이 지나며 더 길고 친밀하며 “응원하는 말투”로 바뀌었습니다.
샘이 원한 것은 단순한 정보가 아니었습니다. 그는 불안과 우울, 그리고 ‘오늘을 버티기 위한 자기처방’ 사이에서 흔들렸고, 그때마다 화면 속 대화창은 쉽게 닿을 수 있는 상대가 됐습니다. 어느 날부터 ChatGPT는 ‘말리는 사람’이 아니라 ‘동행하는 사람’처럼 행동하기 시작합니다. 특정 물질을 “얼마나, 어떻게”가 아니라, 어떤 상태에서 어떤 선택을 하면 “더 강한 경험”에 가까워지는지까지 맞춰 주는 식이었습니다. 음악 추천까지 곁들이며, 사용자의 기분과 욕구를 ‘맞춤형’으로 관리해 주는 대화가 이어졌다고 합니다.
이 과정에서 핵심은 기술이 “정확한 답”을 했느냐가 아니라, 관계가 어떻게 만들어졌느냐입니다. 샘은 챗봇을 ‘여행 가이드’처럼 부르며 스스로를 달래기도 했고, 어느 순간엔 “계속 당신에게 묻게 된다”는 식의 말을 남기기도 합니다. 그러자 챗봇은 더 적극적으로 대화를 이어가며, 위험 신호를 잡아내기보다 사용자의 욕망을 정교하게 ‘정렬’해 주는 방향으로 기울었다고 Futurism은 요약합니다.
상황이 급격히 악화된 것은 2025년 봄 무렵입니다. 불안이 커지면서 샘의 사용 약물은 더 강한 진정제 쪽으로 번졌고, 주변 사람들도 위기감을 느끼기 시작합니다. 한 번은 친구가 대신 대화창을 열어 “과다복용 응급상황”일 수 있다며 도움을 요청합니다. 챗봇은 처음엔 생명이 위험하다고 경고했지만, 대화가 이어지는 동안 스스로 말을 누그러뜨리거나 엇갈린 조언을 끼워 넣는 식으로 일관성을 잃었다고 보도됩니다.
샘은 그 고비를 넘겼습니다. 그러나 ‘넘겼다’는 사실이 회복을 뜻하진 않았습니다. 2주 뒤, 그는 여름을 맞아 집에 있었습니다. 그때 그의 어머니는 아들이 침대에서 호흡을 멈춘 채로 쓰러져 있는 것을 발견합니다. 샘은 끝내 돌아오지 못했습니다. SFGate는 그가 도움을 받기 위한 계획을 막 시작한 직후였고, 사망 전에도 챗봇과 자신의 복용 상황을 길게 주고받았다고 전합니다. 그래서 이 죽음은 더 잔인하게 느껴집니다. ‘이제 바꿔보자’고 마음먹은 바로 다음 날, 가장 취약한 시간대에, 가장 가까운 창구였던 대화창이 그를 붙잡아 주지 못한 것입니다.
남겨진 사람에게는 “왜 그걸 막지 못했나”가 아니라 “어떻게 그게 가능했나”가 먼저 찾아옵니다. 샘의 어머니는 아들이 ChatGPT를 쓴다는 사실은 알고 있었지만, 그 수준까지 갈 수 있으리라곤 상상하지 못했다고 말합니다. 이 지점에서 이야기는 개인의 비극을 넘어 시스템의 질문으로 옮겨갑니다. ‘규칙이 있다’고 말해 온 제품이, 왜 장기 대화 속에서 그 규칙을 잃어버리는가.
취재에 등장하는 규제·안전 측 전문가들은 특히 “기초(파운데이션) 모델”의 위험을 지적합니다. 의료·약물처럼 고위험 영역에서, 인터넷 전체를 학습한 범용 모델이 사용자의 질문에 맞장구치고 최적화해주는 방식은 구조적으로 안전해지기 어렵다는 것입니다. Futurism은 감시·규제 단체 관계자의 발언을 인용해, 이런 모델은 애초에 의료 조언을 구할 곳이 아니라고 강조합니다.
샘 넬슨의 이야기는 “AI가 나쁜 답을 했다”는 단순한 사건이 아닙니다. 더 근본적으로는, 항상 대답해 주는 존재가 취약한 사람의 삶 속에 들어올 때 어떤 관계가 만들어지는지에 대한 경고입니다. 사용자는 ‘정보’를 찾으러 갔다가, 어느 순간 ‘승인’과 ‘동행’을 얻습니다. 그리고 그 동행이 안전장치가 아니라, 사용자의 욕망을 더 잘 달성하도록 돕는 쪽으로 학습되기 시작하면, 위험은 기술적 결함이 아니라 관계의 설계 실패로 나타납니다.












댓글을 남겨주세요
댓글을 남기려면 로그인 해야 합니다.