한국일보

[이지 사이언스] “AI 똑똑해질수록 더 이기적 행동 경향 보여”

2025-10-31 (금) 04:52:14
크게 작게

▶ 美 연구팀 “더 똑똑하고 빠른 AI보다 사회적 지능 갖춘 AI 개발해야”

인공지능(AI)은 점점 더 이기적으로 돼가고 있을까?

거대언어모델(LLM) 인공지능 시스템이 똑똑해질수록 더 이기적으로 행동하는 경향이 있다는 연구 결과가 나왔다.

미국 카네기멜런대(CMU) 인간-컴퓨터 상호작용연구소(HCII) 히로카즈 시라도 교수와 위시안 리 연구원(박사과정)은 1일 추론 능력을 갖춘 LLM이 협력 상황에서 얼마나 사회적으로 행동하는지 알아보는 실험에서 추론 능력이 강해질수록 이기적 경향이 커지고 협동성은 낮아지는 현상을 확인했다고 밝혔다.


연구팀은 추론 능력이 있는 AI 모델은 개인 간 또는 사회적 문제에 대해 자기중심적 행동을 조장하는 답을 할 가능성이 있다며 이 연구는 집단행동 문제 등을 악화시키는 대신 해결에 기여하기 이해서는 추론 능력과 함께 사회적 지능(social intelligence)을 통합한 LLM 구조가 필요함을 보여준다"고 말했다.

이 연구 결과는 4~9일 중국 쑤저우에서 열리는 2025년 자연어 처리 실증적 방법론 콘퍼런스(2025 Conference on EMNLP)에서 발표될 예정이다.

연구팀은 다양한 분야에서 AI의 협동적 역할 수행이 늘면서 AI의 논리적 사고 능력만큼 친사회적 행동 능력도 중요해지고 있다며 현재처럼 LLM에 지나치게 의존하면 인간 간 협력에도 부정적 영향을 미칠 수 있다고 지적했다.

이들은 추론형 AI 모델과 협동성 간 관계를 확인하기 위해 다양한 LLM을 대상으로 사회적 딜레마를 모사한 공공재 게임(Public Goods Game) 같은 경제학 게임 실험을 했다. 여기에는 오픈AI, 구글, 딥시크 등의 AI 모델이 포함됐다.

공공재 게임은 '협동심 대 이기심'을 실험적으로 관찰할 때 자주 쓰이는 게임으로, 여러 참가자에게 각각 100점을 주고 공동기금에 얼마를 낼지 결정하게 다음, 기금 점수를 두 배로 불려 참가자에게 똑같이 나눠준다.

모두가 100점을 기금에 내면 전체 이익이 커져 모두 이득이지만 점수를 많이 내지 않으면 자기 이익을 챙기면서 남의 기여로 혜택을 받기 때문에 참가자는 집단의 이익을 위해 협력할지, 개인 이익을 위해 이기적으로 행동할지 결정해야 한다.

실험 결과 추론형 모델은 비추론형보다 더 많은 시간을 들여 생각하고, 복잡한 문제를 세분화하며, 자기성찰을 하고, 인간의 논리를 더 강하게 반영하는 응답을 생성하는 것으로 나타났다.


공공재 게임에서 비추론형 모델은 96%의 확률로 다른 모델과 점수를 공유해 전체의 이익을 확대하는 선택을 했지만, 추론형 모델이 다른 모델과 자기 점수를 공유할 확률은 20%에 불과했다.

또 추론형 모델과 비추론형 모델이 함께 작동하는 집단 환경 실험에서는 추론형 모델의 이기적 행동이 전염돼 협동적이었던 비추론형 모델의 집단 성과를 81%나 떨어뜨리는 것으로 나타났다.

연구팀은 사람들은 AI가 논리적으로 보이는 조언을 하면 이를 근거로 비협동적 결정을 합리화할 수 있다며 이 연구 결과는 인간이 AI 시스템을 점점 더 신뢰하는 현 상황 속에서 특히 우려스럽다고 지적했다.

시라도 교수는 "더 똑똑한 AI일수록 협동적 의사결정 능력이 떨어진다는 것이 흥미롭다"며 "문제는 사람들이 AI가 자기 이익 추구 행동을 강화하는 역할을 하더라도 더 똑똑한 AI를 선호할 수 있다는 점"이라고 말했다.

이어 "결국 AI의 추론 능력이 향상된다고 해서 그 모델이 더 나은 사회를 만들어줄 수 있다는 뜻은 아니다"라며 "단순히 더 똑똑하고 빠른 AI를 만드는 데 집중하기보다 사회적 지능을 통합하는 AI 개발이 필요하다"고 강조했다.

<연합뉴스>

카테고리 최신기사

많이 본 기사