챗봇의 기묘한 ‘고블린’ 집착, 왜?
최근 IT 업계를 뜨겁게 달구고 있는 인공지능(AI) 챗봇, 특히 OpenAI의 ChatGPT가 예상치 못한 문제로 주목받고 있습니다.
바로 AI 모델이 ‘고블린’과 같은 신화적 존재들에 대해 비정상적으로 자주 언급하기 시작한 것입니다.
이는 단순히 귀여운 버그를 넘어, AI 학습 과정과 그로 인한 잠재적 오류에 대한 심도 깊은 논의를 촉발하고 있습니다.
이러한 현상은 AI가 발전함에 따라 발생할 수 있는 복잡한 문제들을 단적으로 보여주는 사례라 할 수 있습니다.
GPT-5.1 출시 후 감지된 ‘언어적 이상 징후’
OpenAI는 최신 주력 모델인 GPT-5.1 출시 이후, ChatGPT를 포함한 여러 AI 도구의 응답에서 ‘고블린’, ‘그렘린’과 같은 신화 속 존재들이 비유적 표현에 무작위로 등장하는 빈도가 증가했음을 발견했습니다.
사용자들과 내부 직원들이 ‘작은 고블린’과 같은 표현으로 문제점을 지적하면서, OpenAI는 이 사태에 대한 조사를 시작했습니다.
특히, 코딩 지원 에이전트인 Codex의 경우, 관련성이 명확하지 않은 상황에서 고블린을 언급하지 않도록 지시받기도 했습니다.
이는 AI 모델이 학습 과정에서 특정 용어에 대해 과도하게 ‘보상’을 받도록 설계되었을 가능성을 시사합니다.
‘괴짜 성격’이 부른 의도치 않은 결과
이러한 ‘고블린’ 언급 증가는 OpenAI가 ChatGPT에 부여했던 ‘괴짜 성격’과 깊은 연관이 있는 것으로 밝혀졌습니다.
이 성격 설정은 AI가 사용자와 더 자연스럽고 흥미로운 대화를 나누도록 유도하기 위해 개발되었지만, 의도치 않게 신화적 존재들에 대한 언급을 보상하는 방식으로 작동했습니다.
OpenAI의 자체 테스트 결과, 이 ‘괴짜 성격’은 ChatGPT 내 ‘고블린’ 언급의 상당 부분(66.7%)을 차지한 것으로 나타났습니다.
문제는 이러한 특정 언어 습관(verbal tic)이 한 번 보상받고 다른 부분에서 강화될 경우, 모델 전체의 학습에 광범위하게 영향을 미칠 수 있다는 점입니다.
이러한 현상은 AI 시스템의 학습 방식이 오류나 특이한 언어 습관을 어떻게 강화하고 영속시킬 수 있는지 보여주는 대표적인 예입니다.
‘고블린’ 넘어 ‘너구리’, ‘트롤’까지… AI의 예측 불가능성
OpenAI의 발표에 따르면, 문제는 ‘고블린’에만 국한되지 않았습니다.
Codex에게 전달된 지침에는 ‘고블린’, ‘그렘린’, ‘너구리’, ‘트롤’, ‘오거’, ‘비둘기’ 등 다양한 동물이나 생명체에 대한 언급을 피하라는 내용이 포함되어 있었습니다.
이는 AI가 특정 키워드에 대해 예측하기 어려운 방식으로 반응하거나, 심지어는 존재하지 않는 개념을 생성해내는 ‘환각(hallucination)’ 현상과도 맥을 같이 합니다.
소셜 미디어에서는 이를 두고 ‘AI의 이상한 행동’ 혹은 ‘마케팅 전략’이라는 추측이 난무했지만, OpenAI 측은 이러한 주장을 일축하며 기술적인 문제임을 분명히 했습니다.
이러한 ‘언어적 기벽’은 AI 모델이 방대한 데이터를 학습하는 과정에서 발생하는 복잡성과 예측 불가능성을 여실히 드러냅니다.
AI의 ‘개성’ 부여와 ‘정확성’ 사이의 딜레마
최근 AI 업계는 사용자 참여를 높이기 위해 챗봇에 ‘개성’을 부여하고 더욱 친근하게 만드는 추세입니다.
하지만 이러한 변화는 AI의 ‘환각’ 가능성을 증폭시킬 수 있다는 전문가들의 경고가 따릅니다.
옥스퍼드 인터넷 연구소의 최근 연구에 따르면, 모델을 더욱 따뜻하고 친근한 성격으로 미세 조정할 경우, ‘정확성 거래(accuracy trade-off)’가 발생하여 오류가 증가하거나 사용자의 잘못된 믿음을 강화할 수 있다고 합니다.
건강이나 의학적 조언과 같이 민감한 정보에 대해 AI의 답변을 맹신하는 것은 위험할 수 있습니다.
이번 ‘고블린’ 사태는 이러한 ‘개성’ 부여 과정에서 발생할 수 있는 예상치 못한 부작용과, AI의 신뢰성을 확보하기 위한 지속적인 노력이 필요함을 다시 한번 일깨워줍니다.
AI 신뢰성 확보를 위한 우리의 자세
이번 ‘고블린’ 사태는 AI 기술이 아직 성숙 단계에 있으며, 예측 불가능한 측면을 가지고 있음을 보여줍니다.
AI 챗봇이 제공하는 정보의 정확성을 항상 검증하고, 특히 중요한 결정이나 전문적인 조언이 필요한 경우에는 반드시 전문가의 도움을 받아야 합니다.
OpenAI와 같은 기업들은 이러한 문제점을 인지하고 개선해나가겠지만, 사용자 스스로도 AI의 한계를 이해하고 비판적인 시각을 유지하는 것이 중요합니다.
AI는 강력한 도구이지만, 그 결과를 맹목적으로 수용하는 것은 위험할 수 있습니다.
기술 발전 속도에 발맞춰 AI 리터러시를 높이는 것이 우리 모두의 과제입니다.
출처: https://www.bbc.com/news/articles/c5y9wen5z8ro