[주니어 앰배서더] 인공지능은 중립적이고 객관적이다?!
인공지능 판사 도입을 원하는 사람들
지난해 미국에서 인공지능이 인간에게 중형을 내린 사건이 있었습니다. 뉴욕 타임즈에 따르면 위스콘신주에 거주하는 에릭 루미스(34)는 2013년 총격 사건에 사용된 차량을 운전하다가 경찰 단속에 걸린 뒤 계속 도주한 혐의로 기소됐습니다. 주 검찰은 그의 형량을 결정하는 재판에서 AI 기기인 ‘컴퍼스(Compas)’의 분석을 활용해 “루미스가 재범을 저지를 가능성이 높다”고 주장했고, 판사는 이를 인정해 “루미스는 공동체에 큰 위협이 되는 인물”이라며 징역 6년을 선고했습니다. AI는 루미스의 성폭력 전과 등을 감안해 그의 재범 가능성을 판단했는데요, 루미슨느 이에 대해 AI 분석을 근거로 중형을 선고한 것이 부당하다고 항소했습니다. 하지만 위스콘신주 대법원은 루미스의 항소에 대해 “컴퍼스 보고서는 가치 있는 정보를 제공했다”면서 “컴퍼스 보고서를 제외해도 전과가 있는 루미스가 스스로 범죄 차량 운전 혐의 등을 인정한 만큼 같은 형량을 받았을 것”이라면서 이를 기각했습니다. 어쩌면 우리의 생각보다도 인공지능 판사 시대는 눈 앞에 다가온 것일 지도 모릅니다.
국내에서도 과거 사법부가 공정함을 버리고 사사로운 이익에 따라 재판을 거래해온 사실이 드러나면서 청와대 국민청원 게시판에 ‘AI 판사를 도입하라’는 청원글이 꾸준히 올라오고 있습니다. AI는 자신의 이익에 따라 사건을 판단할 가능성이 있는 인간보다 더 공정하게 법을 집행할 수 있을 것이라고 믿는 것이지요. 한 조사에 따르면 국민 42%, 변호사 75.8%가 퇴직한 판·검사에게 후배 파나가 유리한 판결을 내리는 ‘전관예우’가 여전히 존재한다고 말하고 있어, 국민 불신뿐만 아니라 같은 법조인도 사법부에 대한 신뢰가 없는 것이 현실입니다. 인공지능 판사가 도입된다면 이러한 불공정한 판결을 줄이고 법에 의거해 모두에게 공정한 판결을 내려줄 수 있을까요?
인공지능도 인간이 만드는 것
사진출처 : Freepik
‘페미니즘 인공지능’을 쓴 인공지능 전문가인 메러디스 브루서드 미국 뉴욕대 아서 L. 카터 저널리즘 연구소 교수는 “인공지능이 인간보다 객관적으로 판단할 것이란 기대는 환상이다”라고 이야기 합니다. 인공지능은 사람에 의해 만들어지기 때문이지요. 인공지능의 사고 원리인 알고리즘을 개발하고 판단의 근거가 되는 데이터를 채워 넣는 것 역시 사람입니다. 앞서 소개한 미국의 인공지능 판사 소프트웨어인 컴퍼스(Compas)’는 유색 인종과 가난한 사람들의 재범 위험성을 높게 예측했습니다. 이러한 데이터는 사람들의 선입견을 기반으로 한 것이기도 합니다. 메러디스는 자신의 저서를 통해 인공지능이 결코 공정하지도 완벽하지도 않으며 특권층의 욕망과 공상을 반영하고 있다고 말합니다. 사회의 다양한 주체를 중심으로 만들어지는 것이 아닌 특정계층의 기준에 편향되어 있다는 것이지요.
인공지능에도 정치 성향이 있다?!
최근 미국 노스웨스턴 대학 컴퓨테이셔널저널리즘랩에서는 구글이 우파보다 좌파 성향 언론 매체에서 생산한 뉴스를 더 많이 노출했다고 밝혔습니다. “구글 AI가 정치적으로 좌파의 성향을 띄고 있다”는 것이지요. 연구팀은 구글 톱 스토리 페이지에 게재된 뉴스 6302건을 분석하였고, 그 결과 가장 많은 언론사는 CNN (10.9%)으로 나타났으며, 2위는 뉴욕타임즈(6.5%), 3위는 워싱턴포스트(5.6%)가 차지했습니다. 연구팀의 조사 결과를 판단하기 전 미국 언론의 정치 성향부터 먼저 이야기가 필요할 것 같은데요. 미국 언론은 매체 별로 정치 성향이 진보, 중립, 보수 성향이 뚜렷하기로 유명합니다. 연구팀은 올사이즈를 참고하여 미국 언론 매체의 정치 성향을 특정하고 구글의 톱뉴스 페이지 점유율 상위에 오른 CNN, 뉴욕타임즈, 워싱턴포스트 등이 진보 성향의 매체라는 것을 들어 구글 인공지능이 좌파 성향의 뉴스를 더 자주 노출한 것으로 판단을 내렸습니다. 연구에 참여한 니콜라스 디아코풀로스 조교수는 “실제 좌파 성향 매체가 구글 주요 뉴스에 게재되는 비율이 3.2배 높은 것으로 나타났다”고 밝혔습니다.
구글은 연구팀의 이러한 발표에 대해서 구글 인공지능은 편향적으로 뉴스를 게재하지 않는다고 밝혔습니다. 뉴스 게재에 어떠한 정치적 편향이 개입되지 않았다는 입장을 고수하고 있지요. 하지만 구글이 자사의 뉴스 인공지능 알고리즘을 공개하지 않는 이상 컴퓨테이셔널저널리즘 연구팀이 제기한 의문은 시원하게 풀리지 않을 것 같습니다.
인공지능은 중립적일 것이라는 환상
사람의 판단에 비해 공정성과 효율성을 높일 것이라고 기대받고 있는 인공지능이 오히려 성별, 인종별, 소득별 차별을 강화하는 사례들도 있습니다. 구글이 출시한 스마트폰용 포토앱은 사진을 인식해 자동으로 분류하고 태그를 붙이는 기능을 선보였었는데요, 이 앱은 흑인의 얼굴 사진에 ‘고릴라’라는 태그를 달아 한바탕 홍역을 치른 적이 있습니다. 니콘 카메라의 얼굴 인식 소프트웨어는 아시아인의 경우 뜬 눈읖 깜빡이는 것으로 잘못 인식했고, 휼렛패커드가 만든 노트북의 웹캠은 흑인을 아예 인식하지 못하기도 했습니다. 캘리포니아, 펜실베니아 등 미국의 많은 주에서 경찰은 검문검색에 코그니테크와 같은 사진 인식 소프트웨어를 사용하는데, 인종에 따라 판독 정확도가 크게 차이난다는 연구 결과가 밝혀지기도 했지요. 왜 이런일들이 벌어질 수밖에 없을까요?
첫번째는 앞서 말했던 것처럼 인공지능을 구성하는 알고리즘 역시 ‘사람이 만드는 것’이기 때문입니다. 알고리즘을 객관적이라고 생각해서 사람들은 신뢰하지만 실상 알고리즘 자체는 인간이 만드는 것이므로 다양한 편견과 관점이 스며들 수 있습니다.
둘째로 컴퓨터 스스로 데이터를 통해 학습하는 머신러닝은 주어진 데이터의 한계를 벗어날 수 없습니다. 기존 데이터의 규모와 특성 그리고 데이터를 만드는 사람들의 속성이 반영된다고 할 수 있지요. 인공지능 분야에 종사하는 사람들은 백인, 남성, 고소득자, 영어 사용자가 절대 다수이기 때문에 위에서 설명한 것과 같은 차별적인 사례들이 벌어질 수밖에 없다는 것입니다.
인간은 더 냉철한 판단력을 가져야한다
사진출처 : Freepik
마이크로소프트의 수석 연구원 케이트 크로퍼드는 <뉴욕 타임스>의 기고에서 “인공지능은 다른 기술들처럼 개발자의 가치를 반영한다. 누가 중요한 자리에 앉아 결정하고 윤리적 관점을 제시하는지 따지지 않으면, 소수 특권세력의 편협하고 편향적인 관점을 반영하게 된다”고 이야기했습니다.
로런스 레시그 하버드 법대 교수는 <코드>에서 법이 사회를 규율하듯 소프트웨어 코드는 사이버 세계를 규율한다고 말했는데요. 법과 알고리즘 모두 현실을 규율하는 힘이지만 둘 사이에는 큰 차이가 있습니다. 바로 법조문은 작동 방식과 영향이 겉으로 드러나지만 알고리즘은 블랙박스 속에 가려져 있다는 것이지요. 개발자 외에는 이 알고리즘에 접근할 수 없습니다. 인공지능에 대한 무조건 적인 신뢰를 경계해야하는 이유입니다. 인공지능의 기반이 되는 알고리즘과 학습 데이터는 결국 인간이 만드는 것이기 때문이지요.
최근 점점 인공지능의 쓰임새는 다양한 범위로 확대되고 있습니다. 하지만 대다수의 사람들은 이 인공지능이 어떠한 구조로 만들어지고 작동되는지는 알지 못하지요. 인공지능에 대한 맹목적인 신뢰는 어쩌면 그 알고리즘을 만드는 사람들의 생각대로 현실을 편집하고 작동되도록 만들지도 모릅니다.
지금은 우리가 인공지능에 대한 무조건적인 신뢰가 아닌 개인의 냉철한 판단력을 키우고 알고리즘의 투명성에 대한 사회적 논의에 보다 관심을 기울여야 할 때가 아닐까요?
#주니어앰배서더
#주니어앰버서더
#인공지능미래
■ 더 자세히 알고 싶다면
1. Wisconsin vs. Loomis : Court Affirms the Use of COMPAS in Sentencing
2. Fair or Biased? Study Reveals CNN is the Google Algorithm’s Most Trusted Name