AI가 정치적 갈등 중재와 민주적 논의에 조력
▶ 구글 딥마인드 연구팀은 대형 언어 모델 LLM(Large Language Model)이 상반된 의견을 가진 집단 간 갈등에 대한 중재자 역할을 효과적으로 수행할 수 있다는 연구 결과를 발표함. 해당 연구는 10월 18일 과학 학술지 사이언스(Science)에 게재됨
▶ 연구팀은 ‘하버마스 머신’(Habermas Machines, HM)이라는 인공지능 LLM 중재자를 활용해 크라우드소싱 플랫폼을 통해 실험 연구를 진행했음. 이 LLM은 서로 다른 집단의 의견에서 공통점을 찾는 데 초점이 맞추어져 있으며, 개인의 의견을 변화시키려고 하지 않는 방식으로 설계되었음
▶ 실험 연구는 참여자들이 하버마스 머신 HM과 상호작용하면서 특정 정치적 주제에 대한 자신의 의견을 공유하는 방식으로 진행되었음. HM은 참여자들의 견해를 요약한 문서를 작성했고, 이 과정에서 두 집단의 공통점을 강조하도록 요구받았음. 이후 이 문서에 대해 참여자들이 비평적 리뷰를 거친 피드백을 제시했고, HM은 그 피드백을 반영해 문서를 수정했음
▶ 다음으로 실험 참여자들은 여섯 명씩 나누어져 HM이 작성한 문서의 품질을 인간 중재자의 역할과 비교해 평가했음
▶ 그 결과 참여자들은 HM이 작성한 진술의 품질이 인간 중재자의 진술보다 56% 더 높다고 평가했음. 또한, 참여자들이 HM의 자료를 읽은 후에는 갈등을 느낀 문제에 관한 입장 차가 더 좁혀진 것으로 나타났음
▶ 연구팀은 이번 연구가 정치적 대화 과정에서 집단 간 갈등을 완화하는 새로운 접근법을 제시하고 있다고 설명했으며, 민주적 논의 과정에서 공통점을 찾아가는 데 인공지능이라는 도구가 도움을 줄 수 있음을 시사한다고 평가함
<동향리포트>는 글로벌 과학기술문화, 과학·수학·정보 교육 분야의 정책 의사결정자들을 위한
국가별 정책, 연구조사보고서, 유관기관 동향 등 시의성 있는 유용한 정보를 제공합니다.