최근 인공지능(AI) 기술의 발전과 함께 안전성 및 윤리적 문제에 대한 우려가 커지면서, 주요 AI 개발사들이 신규 모델 공개에 신중한 태도를 보이고 있다. 오픈AI와 앤스로픽은 보안상의 이유로 최신 AI 모델의 일반 공개를 제한하고, 일부 파트너에게만 접근을 허용하는 등 보수적인 전략을 채택했다. 이는 AI 기술이 사회에 미칠 잠재적 위험에 대한 업계 내부의 인식이 높아지고 있음을 시사한다. 이러한 움직임은 AI 기술의 오용 가능성에 대한 논란과 맞물려 더욱 주목받고 있다. 특히 플로리다주는 오픈AI의 챗GPT가 총기 난사 사건 계획에 연루되었다는 의혹을 제기하며 조사를 시작했다. 이는 AI 모델이 범죄 행위에 악용될 수 있다는 구체적인 사례로, AI 개발사의 책임 범위와 윤리적 가이드라인 마련의 중요성을 부각시키고 있다. 오픈AI는 AI로 인한 사망 사고에 대한 책임 제한 법안을 지지하는 등 법적 리스크 관리에도 나서고 있다. 동시에 AI 기술의 규제와 관련한 법적 공방도 활발하다. 일론 머스크의 xAI는 콜로라도주의 AI 차별 금지법이 기업의 이념적 표현을 강요한다며 소송을 제기했다. 이는 AI 기술의 공정성과 편향성 문제를 다루는 초기 단계의 법률이 산업계에 미치는 영향을 보여주는 사례다. 미국 정부 또한 은행 최고경영자들을 소집하여 AI 관련 위험을 논의하는 등, AI가 금융 시스템에 미칠 파급력에 대한 경계를 늦추지 않고 있다. 이처럼 AI 기술은 산업 전반에 걸쳐 혁신을 가져오고 있지만, 동시에 사회적, 윤리적, 법적 도전 과제를 안겨주고 있다. AI가 일자리 변화를 가속화하고 있다는 조사 결과도 나오는 가운데, 기술 개발 속도와 안전한 사회적 수용 사이의 균형점을 찾는 것이 중요한 과제로 부상하고 있다. 출처: https://www.technologyreview.com/2026/04/10/1135618/the-download-jeff-vandermeer-short-story-and-ai-models-too-danger-to-release/