▶ 지난 7월 이후 공석…장기위험 다루는 ‘초정렬’ 팀은 지난해 해체

샘 올트먼 오픈AI 최고경영자(CEO). [로이터]
챗GPT 등 인공지능(AI) 챗봇이 정신건강 관련 위험을 초래한다는 비판에 직면한 오픈AI가 AI의 잠재적 위험에 대비하는 책임자를 다시 모집한다.
샘 올트먼 오픈AI 최고경영자(CEO)는 사회관계망서비스(SNS) 엑스(X)에 현재 공석인 '준비 책임자'(Head of Preparedness)를 모집하고 있다고 밝혔다고 정보기술(IT) 전문매체 테크크런치가 28일 보도했다.
올트먼 CEO는 "2025년에는 AI 모델이 정신건강에 미치는 잠재적 영향을 미리 경험했다"며 또 "모델이 컴퓨터 보안 분야에서 매우 뛰어난 능력을 발휘해 중대한 취약점을 찾아내기 시작하는 모습을 목격하고 있다"고 말했다.
그는 AI 모델의 능력이 어떻게 악용될 수 있는지 이해하고 이를 정교하게 측정하는 능력이 필요한 시대가 됐다고 강조했다.
그는 준비 책임자 직무에 대해 "중요한 시기에 핵심적인 역할"이라며 "스트레스가 따르는 직무이며 (부임) 즉시 깊은 난제 속으로 뛰어들게 될 것"이라고 언급했다.
오픈AI가 이처럼 AI의 위험 대비에 다시금 나선 것은 챗GPT 이용자 일부가 망상에 시달리다 극단적 선택을 해 유족들이 여러 건의 소송을 제기했기 때문으로 풀이된다.
오픈AI는 당초 AI의 당면한 위험에 대비하는 '준비' 팀과 장기적 위험을 다루는 '초정렬'(Superalignment) 팀을 운영해왔다.
그러나 올트먼 CEO를 비롯한 경영진은 지난해 5월 GPT-4o를 출시하는 과정에서 모델의 빠른 공개를 위해 안전 관련 검증을 최소화하라고 지시해 이들 팀의 반발을 샀다.
이후 준비 팀을 이끄는 책임자는 지난해 7월부터 올해 7월까지 1년간 직무 재배치나 퇴사 등을 통해 세 차례 변경된 끝에 현재 공석으로 남아있다.
오픈AI 공동창업자인 일리야 수츠케버 수석과학자가 이끌던 초정렬 팀은 GPT-4o 출시 직후 수츠케버가 퇴사하면서 다른 팀으로 흡수되는 등 지난해 5월 사실상 해체됐다.
이렇게 안전 검증을 소홀히 한 GPT-4o는 실제로 청소년 등 일부 이용자들에 정신건강 관련 문제를 일으키고 있다는 비판을 받고 있다.
오픈AI는 이와 같은 비판을 의식한 듯 최근 나이 예측 모델을 도입해 이용자가 미성년자로 판별되면 자동으로 '18세 미만' 환경을 강제 적용했다.
오픈AI는 챗봇이 이용자에게 지나치게 동조하는 것이 중독을 유발한다는 주장이 제기되자 '친절함'과 '열정적' 정도를 직접 조절할 수 있는 기능을 추가하기도 했다.
<연합뉴스>