미국 스탠포드대 ‘인간중심 인공지능연구소’(Institution of Human Centered AI, HAI)가 펴낸 AI 연례 보고서(AI Index 2023)는 인공지능의 개발 주체가 바뀌었다고 강조한다. 2014년까지는 학계가 주도했지만 그 이후로 산업이 장악하게 되었다는 것이다.

첨단의 AI 시스템 개발을 위해서는 엄청난 데이터와 막대한 자금, 최신 컴퓨팅 기술이 필요한데 비영리 단체나 학계가 이를 감당하기는 현실적으로 어렵다. 실생활 접목을 통한 상업성에 눈독을 들이는 산업이 AI 기술을 주도할 수밖에 없는 이유다.

HAI캡처

일론 머스크의 오픈AI가 개발한 챗GPT는 AI의 역사를 새로 쓰고 있다. 그 뛰어난 재능만큼 논란이 끊이지 않는다. 하지만 386쪽 분량의 스탠포드대 AI 연례 보고서에는 이게 담겨있지 않다. 지난해 말에 공개되었기 때문에 시간적 제약으로 제대로 다루지 못했다.

그럼에도 불구하고 AI 윤리 항목은 주목할 만하다. AI가 인간을 돕고, 생활을 향상시키고, 기술을 증진시키는 지렛대 역할을 하는 것은 분명하지만 그 이면에 도사리고 있는 잠재적 부작용에 대한 우려는 갈수록 커지고 있기 때문이다.

AI 보고서 캡처

보고서는 2021년 AI 관련 사고와 이를 둘러싼 논란이 9년 전인 2012년에 비해 26배나 증가했다며 관련 도표를 제시한다. 세상이 발칵 뒤집힐 정도로 논란의 중심에 서있는 챗GPT가 포함되지 않았는데도 그렇다.

공정과 편견은 AI의 핵심 윤리이자 과제다. 편견이 덜하면 덜할수록 그만큼 공정하리라는 것은 인간의 상식이다. 정확성 또한 공정성을 담보한다고 생각한다. 하지만 AI는 이렇게 단순하지 않다고 보고서는 지적한다.

정확성이 더해질수록 공정성도 더욱 커진다는 인식과는 달리 AI의 정확성과 젠더 편향성의 상관관계는 불분명하다는 사실이 확인되었다. 공정성 면에서 더 낳은 언어모델이 젠더 편향성이 더 강한 사례가 발견된 것이다. AI의 작동 원리가 인간의 생각대로만 움직이는 게 아니라는 반증이다.

AI 보고서 캡처

가짜뉴스는 디지털 사회의 가장 큰 문제 가운데 하나다. 사람이 일일이 다 할 수 없는, 거짓과 가짜를 구분해주는 팩트체크의 유용한 도구로 AI가 크게 각광받고 있다. 하지만 보고서는 비판적이다. AI가 신뢰할 수 없는 정도를 넘어 오히려 잘못된 정보를 사실로 받아들이게 하는 나쁜 도구로 전락할 가능성이 높다고 지적한다.

인간과 AI의 공존은 거역할 수 없는 대세이다. 공존은 견제와 균형 속에서만 존재한다. AI가 인간의 조력자가 아닌 인간을 수단화 한다면 디스토피아로 가는 길이다. AI와 이를 개발하고 운용하는 조직과 단체에 대한 끊임없는 비판과 감시가 필요한 이유다.

인쇄하기

이전
다음
2+

소요 사이트를 방문해주셔서 고맙습니다. 액수에 관계없이 여러분의 관심과 후원이 소요 사이트를 유지하는 데 큰 힘이 됩니다. 후원금은 협동조합 소요 국민은행 037601-04-047794 계좌(아래 페이팔을 통한 신용카드결제로도 가능)로 후원하실 수 있습니다.