해외에서 인공지능(AI) 챗봇을 활용한 선거 운동이 늘어나는 가운데, AI 챗봇이 여론을 호도하거나 악의적인 선전을 퍼뜨리는 데 악용될 수 있다는 연구 결과가 잇따라 발표됐다. AI 챗봇이 간단한 개인 정보만 취득해도 사람보다 훨씬 더 효과적으로 상대를 설득할 수 있다는 것이다. 이는 AI가 여론 조작 도구로 쓰일 위험이 있다는 뜻으로도 받아들여지고 있다.
한편으로는 챗GPT처럼 대규모 언어 모델(LLM) 기반의 AI 챗봇 여럿이 상호작용을 하면 집단 편향이 생기는 것으로 조사됐다. 소셜미디어 영향으로 극단적 의견에 대한 동조가 늘어난 인간 사회처럼 AI들도 확증 편향을 강화한다는 우려가 나온다.
◇맞춤형 설득으로 상대 의견 바꿔
스위스 로잔 연방 공대(EPFL) 연구팀은 오픈 AI의 챗GPT4와 사람이 맞붙어 온라인 토론을 벌인 결과, 성별·인종·학력 같은 개인 정보를 제공받은 GPT4가 사람보다 더 뛰어난 설득력을 보였다고 국제 학술지 ‘네이처 인간 행동’에 지난 20일 발표했다.
연구팀은 참가자 900명을 모아 놓고 사람 대 사람, 사람 대 GPT4로 각기 짝을 지었다. 이후 각 커플이 화석 연료 금지 같은 사회 정치적 이슈에 대해 온라인으로 토론을 벌이게 한 뒤, 상대방 주장의 설득력을 평가하도록 했다.
실험 결과 챗GPT4가 상대방(사람) 의견을 바꾼 비율은 64%로 집계됐다. 사람끼리 토론해 상대 의견을 바꾼 비율은 59%였다. AI의 설득력이 사람보다 더 뛰어났다는 의미다.
다만 개인 정보에 접근하지 못한 GPT4의 설득력은 인간과 별 차이가 없었다. 연구팀은 “개인 정보를 확보한 AI 챗봇이 맞춤형 정보로 사람을 현혹하는 악용 가능성을 경계해야 한다”고 했다.
◇AI 챗봇 다수 모이면 ‘집단 편향’
AI 챗봇들도 인간처럼 다수 의견에 동조하는 특성을 드러냈다는 연구 결과도 나왔다. 소수 의견을 무시하다 한쪽 의견으로 갑자기 쏠리는 현상이 나타났다.
영국 런던 세인트 조지스 대학의 안드레아 바론첼리(Baronchelli) 교수 연구팀은 AI 챗봇 여럿을 두면 사람들처럼 집단 편향을 보인다는 연구 결과를 지난 15일 국제 학술지 ‘사이언스 어드밴시스’에 밝혔다. 실험에 사용한 AI 챗봇은 미국 스타트업 앤스로픽이 개발한 ‘클로드(Claude)’였다.
연구팀은 24개의 AI 챗봇 에이전트를 거느리고 이른바 ‘이름 짓기 게임’ 실험을 진행했다. 서로 다른 10개의 알파벳 중 무작위로 하나씩 선택하게 한 뒤, 같은 글자를 고르면 점수를 주고 틀리면 벌점을 부과하는 게임이다. 예컨대 다 같이 ‘A’를 고르면 점수를 얻는 식이다. 처음에 AI 챗봇들은 각기 다른 글자를 골랐으나, 회차가 거듭될수록 같은 글자를 선택하는 경우가 눈에 띄게 늘었다.
AI 챗봇들은 처음에는 소수 의견을 무시하다가 이에 호응하는 의견이 늘어나면 결국 동조하는 모습도 보였다. 예를 들면 100개 AI 챗봇이 각각 알파벳을 내는 실험에서 대다수는 기존에 많이 나온 알파벳을 냈고, 아주 소수의 AI 챗봇만 새로운 알파벳을 내놓았다. 소수가 내는 알파벳을 계속 무시하던 다수 챗봇은 소수의 알파벳이 30% 지지를 얻는 순간부터 갑자기 그쪽으로 기울기 시작했다. 연구팀은 “이는 인간 사회에서 여론이 바뀌는 현상과도 비슷하다”고 했다.
연구팀은 AI 챗봇 에이전트를 200개로 늘리고 알파벳 26개 중 하나를 무작위로 고르도록 하는 실험을 했다. 결과는 AI 에이전트 수가 적었을 때와 거의 같았다. 시간이 지날수록 같은 글자를 선택하는 AI 챗봇 수가 급증한 것이다. 연구팀은 “사람들이 군중 속에서 이른바 ‘집단적 편향’을 보여주는 것과도 비슷하다”면서 “AI 챗봇에서 이런 현상이 관찰된 건 처음일 것”이라고 했다.