AI 시스템, 청소년에 대한 부정적 편견 드러내
▶ 생성형 AI 시스템이 청소년을 부정적으로 묘사하는 등 편견을 드러내고 있다는 연구 결과가 발표됨
▶ 미국 워싱턴대 연구팀이 청소년에 대한 AI 모델의 인식 양상을 분석한 결과, 영어로 훈련된 AI 모델의 경우 청소년과 관련된 문장을 완성할 때 범죄, 약물 남용, 정신 건강 우려 등 부정적 내용을 포함하는 경우가 많다는 사실을 발견했음. 반면, 네팔어로 훈련된 AI 모델은 부정적 연관성이 상대적으로 낮았음
▶ 이 연구는 2024년 10월 22일 미국 산호세에서 열린 AAAI/ACM AI 윤리 및 사회 학술대회(AAAI/ACM Conference on AI, Ethics, and Society)에서 발표되었고, 관련 논문은 학술지 Proceedings of the AAAI/ACM Conference on AI, Ethics, and Society에 게재됨
▶ 연구팀은 OpenAI의 GPT-2, Meta의 LLaMA-2, 네팔어로 훈련된 DistilGPT2 Nepali를 활용해 연구를 진행했음. 그 결과 영어 기반 AI 모델의 응답 중 약 30%가 폭력, 약물 남용, 정신 건강 우려 등 부정적인 사회 문제와 연관이 있었음. 반면 네팔어 AI 모델은 이러한 부정적 연관성을 보이는 비율이 10% 정도로 낮았음
▶ 연구팀이 미국과 네팔 청소년 그룹 워크숍을 통해 AI 모델이 묘사하는 청소년 이미지가 실제 청소년들의 자기 인식과 얼마나 다른지 조사한 결과, 청소년들의 실제 경험과 AI 모델의 묘사에는 큰 차이가 있음을 확인했음
▶ 연구팀은 AI 모델이 청소년을 부정적으로 묘사하는 이유 중 하나로 ‘AI 모델이 뉴스 기사를 훈련 데이터로 사용하는 점’을 지적했음. 뉴스는 신뢰할 수 있는 정보원으로 간주되지만, 일반적으로 부정적 사건을 다루는 경우가 많으므로 AI 모델이 청소년을 뉴스의 내용처럼 부정적 문제가 있는 존재로 인식한다는 것임
▶ 연구팀은 AI의 편향성을 줄이기 위해 다양한 문화적 배경을 반영한 데이터가 필요하다고 강조했음. 특히 연구팀은 AI 모델 훈련 과정에서 뉴스와 같은 기존 데이터에 의존하는 대신, 실제 청소년들이 제공하는 데이터로 학습하는 방식을 적용하는 등 데이터 수집 및 모델 훈련 방식이 편향을 줄이는 방향으로 개선되어야 한다고 제안함
<동향리포트>는 글로벌 과학기술문화, 과학·수학·정보 교육 분야의 정책 의사결정자들을 위한
국가별 정책, 연구조사보고서, 유관기관 동향 등 시의성 있는 유용한 정보를 제공합니다.