예측형 AI가 실패하는 다섯 가지 이유

  1. 좋은 예측이 나쁜 결정으로 이어진다. – 폐렴 증세로 병원을 찾은 천식 환자들을 집으로 돌려보낸다.)
  2. 사람들이 불투명한 AI를 전략적으로 상대한다. – 면접영상 촬영 시 배경에 책꽃이를 추가하면 자동화된 채용도구의 점수가 올라간다.
  3. 사용자들이 적절한 감독 없이 AI에 지나치게 의존한다. – 부모 3만 명을 사기 혐의로 잘못 고소한 네덜란드 복지사기 감지 모델
  4. AI를 훈련하는 데 사용되는 데이터가 AI르 적용하는 집단과 다른 인구집단에서 나온다. – 범죄율이 전혀 다른 지역의 데이터로 훈련한 공공 안전 평가(PSA) 시스템
  5. 예측형 AI가 불평등을 심화시킨다. – 의료 서비스가 더 많이 필요한 이들을 의료소비를 더 많이 하는 이들로 판정한 옵텀의 임팩트 프로

“AI 버블이 온다” 책의 전반부를 읽고 있습니다. 인공지능을 기능에 따라 크게 두가지로 나누면 “예측형 AI”와 “생성형 AI”로 나눌 수 있습니다. 최근엔 각종 텍스트나 영상 컨텐츠를 제공하는 생성형 AI에 관심이 쏠려있지만, 우리 사회에 미치는 영향이나 보급되는 속도만 본다면 예측형 AI의 파급력이 생성형을 훨씬 웃돌고 있습니다. 해당 책은 이러한 예측형 AI로 인해 오히려 커다란 사회적 손실과 피해가 나오고 있는 현실을 실제 사례들을 봉해 지적하고 있습니다.

비교적 최근에 개발되고 있는 생성형 AI가 사람들에게 큰 관심과 호응을 받고 있는 이유도 지금까지 개발되어 왔던 많은 예측형 AI가 다양한 원인과 경로를 통해 실패해왔던 반작용 때문이었을겁니다. 예측형 AI가 정말로 사회적으로 유익을 가져다 주는 예측을 해오지 못했다는거지요.

인공지능이라는 기술이 그만큼 광범위한 영역에서 한계들을 보이고 있으며, 기술적 완성도 이전에 인간이 올바르게 활용하기 위한 법과 제도, 사회적 인식의 중요성이 앞으로도 계속 강조될 수 밖에 없다는 것을 보여주고 있는겁니다.

댓글 남기기