오픈AI가 자사의 대화형 인공지능(AI) 챗GPT에 사용자 안전 강화를 위한 '신뢰할 수 있는 연락처(Trusted Contact)' 기능을 새롭게 도입한다. 이 기능은 챗GPT 사용자가 자해나 자살 등 심각한 정신 건강 관련 우려를 표현할 경우, 사전에 등록된 비상 연락처에 자동으로 알림을 보내는 방식이다. 이는 기존에 제공되던 지역별 정신 건강 헬프라인 정보와 더불어 사용자에게 추가적인 지원과 안전망을 제공하려는 목적이다. 오픈AI는 이 기능을 통해 위기 상황에 놓인 사용자가 적시에 도움을 받을 수 있도록 돕고, AI 챗봇의 사회적 책임을 강화하겠다는 방침이다. 대규모 언어 모델(LLM)의 발전과 함께, AI가 인간의 감정이나 심리적 상태를 얼마나 정확하게 이해하고 반응해야 하는지에 대한 논의가 활발하다. 특히 자해나 자살과 같은 민감한 주제에 대한 AI의 개입은 신중함이 요구된다. 과거 일부 AI 챗봇은 이러한 상황에서 부적절하거나 심지어 위험한 답변을 제공하여 논란이 된 바 있다. 오픈AI의 이번 조치는 AI 기술의 사회적 책임과 사용자 안전을 최우선으로 고려하는 업계 전반의 흐름을 반영하며, AI 윤리 및 안전성 강화에 대한 지속적인 노력을 보여주는 사례로 해석된다. 이는 AI가 단순한 정보 제공을 넘어 사용자의 복지에 직접적으로 기여할 수 있는 방안을 모색하는 중요한 전환점이 될 수 있다. 이 기능 도입은 AI의 역할이 단순 정보 제공을 넘어 사용자의 실제 삶에 더 깊이 관여하게 될 것임을 시사한다. '신뢰할 수 있는 연락처' 기능은 위기 상황에 처한 사용자에게 신속한 도움의 손길을 제공함으로써 생명을 구하는 데 기여할 수 있을 것으로 기대된다. 동시에 AI 개발사들에게는 이러한 민감한 기능을 설계하고 구현하는 과정에서 데이터 프라이버시, 오작동 가능성, 그리고 오용 방지 등 더욱 엄격한 윤리적, 기술적 기준을 요구할 것이다. 장기적으로는 AI 챗봇이 단순한 대화 도구를 넘어 개인의 정신 건강을 지원하는 중요한 보조 수단으로 자리매김할 가능성을 열어줄 것으로 전망된다. 출처: https://www.theverge.com/ai-artificial-intelligence/925874/chatgpt-trusted-contact-emergency-self-harm-notification