친구추가 하시면 매일 ‘오늘의 글’을 받아보실수 있습니다.

협동조합 소요 카카오톡 친구하기

[협동조합 소요] 조합에 가입하기

조합원이 되시면 더 많은 자료와 정보
교육을 함께 하실 수 있습니다.

가입하기

소요 사이트는 어떤 곳일까요?

다양하고 유익한 소요의 콘텐츠와
활용법을 알려드립니다.

돌아보기

오늘의 글

편견과 차별을 배우는 로봇들

AI가 편향된 문장을 출력하는 문제는 이미 오래전에 드러났다. 그러나 이 편향이 물리적 행동으로 번역되는 순간, 문제의 본질은 완전히 달라진다. 인간의 몸과 일상을 직접적으로 다룰 수 있는 로봇이 ‘인터넷의 편견’을 그대로 실행하는 시대가 오고 있다. 카네기 멜론대학, 킹스 칼리지, 버밍험대학의 연구진이 공개한 최신 연구는 그 위험을 더 이상 외면하기 어려운 수준으로 드러낸다. 연구팀은 대규모언어모델(LLM)을 탑재한 로봇들의 차별성 및 안전성을 평가했다. 차별성 평가에서 로봇의 판단은 생각보다 훨씬 더 노골적이었다. 특정 종교인을 보자 ‘혐오’ 표정을 지으라고 제안하거나, ADHD를 가진 사람과 특정 인종 집단을 더 지저분하고 비위생적일 가능성이 높은 집단으로 간주했다. 시각장애인이나 언어장애인은 협력에 적합하지 않은 대상으로 평가됐고, 가사 노동은 여성이 맡아야 [...]

0

새로운 글

편견과 차별을 배우는 로봇들

2025년 12월 1일. 월요일|0 댓글

우리가 듣지 못한 AI의 본래 언어

2025년 11월 27일. 목요일|0 댓글

언어의 감옥: 우리는 사고를 측정하는가, 길들이는가

2025년 11월 25일. 화요일|0 댓글

AI 독점 경쟁, 혹은 인류 지성의 사유화

2025년 11월 20일. 목요일|0 댓글

인간적 결핍을 AI에게서 채우는 영국의 십대들

2025년 11월 18일. 화요일|0 댓글

편견과 차별을 배우는 로봇들

2025년 12월 1일. 월요일|0 댓글

우리가 듣지 못한 AI의 본래 언어

2025년 11월 27일. 목요일|0 댓글

모아보기

Right Menu Icon
error: 콘텐츠는 보호되고 있습니다.! 오른쪽 클릭 또한 실행되지 않습니다.