인공지능, 어디까지 믿을 수 있을까
인공지능, 어디까지 믿을 수 있을까
  • 조현석 기자
  • 승인 2023.01.02 12:20
  • 댓글 1
이 기사를 공유합니다

일상에서 흔히 볼 수 있는 알고리즘, 과연 알고리즘은 공정한가

 

 

  요즘 사람들은 아침에 눈을 뜨고 밤에 잠이 들 때까지 스마트폰을 손에서 놓지 않는다. 더불어 뉴스나 업무를 보기도 하며 SNS 활동을 하기도 한다. 검색 시 가장 상단에 나타나는 기사나 글, 연구 결과와 비슷한 논문을 추천해주는 시스템까지, 대부분 우리가 추천받는 게시물엔 알고리즘이 스며들어 있다. 다만 알고리즘이 우리 삶을 편하게만 해주는 건 아니다. 편안함에 숨겨진 의도에 속아 기계가 알려주는 대로만 살아갈 수도 있다. 소설 『1984』의 시민을 감시하기 위해 만들어진 ‘텔레스크린’은 이제 먼 나라의 이야기가 아니다. 알고리즘의 작용 방식과 위험성에 대해 알아보자. / 사회부

 

  사람이 가진 수많은 편견과 차별, 이를 해결할 방안으로 인공지능 알고리즘이 등장하였다. 알고리즘은 인간과 달리 감정적 측면을 가지지 않고 이성적 측면만 지닌 기계이기 때문에 인간과 달리 편향적이지 않을 것이라는 기대를 받는다. 하지만 이 또한 인간이 조정하는 탓에 개인의 이익을 위해서 통제 수단으로 쓰일 가능성이 존재한다. 실제로 2020년 말, 네이버가 빅데이터를 활용한 검색 우선 노출 방식을 임의 조정한 게 드러났다. 2012년부터 2020년까지 자사와 관련된 상품을 좀 더 드러나게 하여 이익을 꾀한 일이다.


+ 알고리즘은 우리에게 어떤 영향을 미치고 있을까?
  알고리즘은 검색, 동영상 추천, 광고 등 주변에서 자주 활용되고 있다. 우리는 편리하다는 이유로 이에 의존하는 모습을 보이는데, 좋지 않은 모습이다. 소셜 미디어나 유튜브 같은 경우 사용자의 이용 양태에 맞는 콘텐츠를 끊임없이 노출한다. 힘을 들여 검색하지 않아도 나에게 맞는 글을 읽을 수 있으니 제공하는 정보의 정확성에 관해 의심 없이 읽는다. 그러나 우리는 알고리즘이 나에게 옳지 않은 정보를 제공할 가능성을 배제해서는 안 된다. 실제로 MIT(매사추세츠 공과대학교)의 딘 에클래스 박사는 “정확한 정보는 상대적으로 느리게 전파되며, 선호도에 따라 빠르게 노출되는 자료가 정확하지 않을 수 있다.”고 밝혔다. 신빙성을 얻은 뉴스보다 가짜 뉴스가 여섯 배나 더 빠르게 전달된다는 해석이다.

  알고리즘은 자신에게 맞는 맞춤형 서비스를 제공하기에 적절히 활용하면 편리한 건 분명하다. 그러나 이에 의존하게 되면 사회의 극단화를 초래할 수 있다. 자신과 반대되는 의견들을 듣지 못하고 자신과 같은 의견만 수용하게 되는 에코 체임버(Echo Chamber) 때문이다. 에코 체임버에 빠진 사람들은 객관적인 정보를 접하더라도 자기 생각과 일치하는 방향으로 해석하는 경향을 지닌다. 또한 선호하는 부분만 받아들이며 나머지는 부정하는 편향동화 현상이 나타나기도 한다. 이렇듯 알고리즘이 우리의 사회성을 위협한다는 우려의 목소리도 커지고 있다.

  그리고 AI가 결정하는 과정에 편견이나 편향된 데이터를 학습하여 잘못된 결과를 초래하기도 한다. 마이크로소프트사의 인공지능 채팅봇 ‘테이’는 사람들과 대화하며 학습하고 다양한 반응을 끌어낼 수 있도록 만든 알고리즘이다. 그러나 세상에 나온 지 16시간 만에 서비스를 종료했다. 운영한 지 얼마 되지 않아 인종 차별과 성차별적 발언을 배워 사용한 게 그 이유다. 한국에서도 개발사 스캐터랩이 만든 인공지능 AI 챗봇 ‘이루다’가 유사한 절차를 밟았다. 여성과 성 소수자에 관련한 혐오 표현을 학습하여 ‘AI의 차별과 혐오 재현’의 군상을 보여줬기 때문이다.


+ 알고리즘의 데이터 수집 방식
  알고리즘의 성공은 이용자들의 데이터를 다루는 데에 달려 있다. 시추선이 석유를 뽑아내듯 기업은 이용자의 활동을 자원 삼아 이용할 수 있는 형태로 추출 해낸다. 가장 기본이 되는 방식은 검색 자료 수집이다. 구글은 1997년 창업한 이래 이 방식을 이용해 검색 결과를 개선해왔다. 이후 구글의 기술은 더욱 발전하여 현재에 이르러서는 쿠키 등의 기타 정보들도 온라인 표적 광고 전략에 활용되고 있다.

  데이터 수집은 비단 온라인의 세계에서만 이루어지지 않는다. 예를 들어, 세계에서 큰 유통업체 중 하나인 테스코는 자사의 조사 기관을 통해 오프라인에서도 소비자의 패턴을 분석한다. 사은품을 미끼로 고객 카드를 발급해 소비 정도를 파악하거나, 웨어러블 장치로 고객의 건강 상태를 확보하는 등 방식은 다양하다. 이렇게 추적 된 고객의 자료는 코카콜라, 메이시, 오피스디포 등 이를 요구하는 글로벌 대형 기업들에 판매된다.

  데이터의 중요성이 올라갈수록 기업들은 서로 경쟁하며 기법을 발전시킨다. 미국의 승차 공유 시스템인 ‘우버’의 사례가 이를 대표한다. 우버는 운전자의 활동뿐 아니라 운행에 관한 모든 내용을 조사해 경쟁사로부터 정보량의 우위를 지킨다. 더불어 운전자가 다른 택시 플랫폼을 사용하지 않는지 관찰하고, 운전자의 시위 참여 여부를 감시하는 모습을 보인다. 기업들에 대응하기 위하여 해외에선 법안을 통해 규제를 시도하고 있다. 실제로 미국은 자사 우대 금지, 데이터 상호 운영 등을 담은 ‘플랫폼 반독점 패키지 5대 법안’을 이행 준비 중이다. 유럽 또한 디지털 기업에 의무를 부과하는 ‘디지털 시장법(DMA)’을 내놓았다. 하지만 국내는 아직 관련 법안이 발의 조차 안 된 상황이다.


+ 알고리즘의 차별 사례
  “이럴 거면 그냥 AI 판사 도입하자.” 부당하다고 여겨지는 법원의 판결 결과를 다룬 기사의 댓글 창에서 흔히 볼 수 있는 이야기다. 이러한 의견의 기저에는 사법에 대한 불신과 더불어 인공지능이나 알고리즘의 공정성에 대한 신뢰가 함께한다. 다만 알고리즘이라고 늘 공정하지는 않다. 오히려 현실의 알고리즘은 여러 차별 문제로 골머리를 앓고 있다.

   피고인의 재범 위험성을 예측하여 수치로 알려주는 알고리즘인 미국의 COMPAS는 인종 차별 문제로 많은 논란을 낳았다. COMPAS는 전과, 폭력성, 거주지 등의 정보를 바탕으로 법과 개인의 자의적 판단을 막고 공정한 판결에 도움을 줄 수 있다며 선전되었다. 그렇지만 주장과는 달리 실제 미국 법원에서 활용되었을 때는 홍보와 전혀 다른 모습이 나타났다. 흑인에게만 실제 재범 위험성보다 더 높은 수치를 매기는 차별적인 모습을 보였기 때문이다.

  사법뿐만 아니라 기업의 인사 영역에서도 알고리즘의 차별 문제는 제기되어 왔다. 아마존이 직원 채용을 위해 개발한 인공지능 시스템은 성별 차별 문제로 도입되기도 전에 폐기되었다. 해당 프로그램은 다른 결격 사유가 없더라도 여성이라는 이유만으로 지원자들을 감점시켰다. 남성 중심 정보 통신 업계의 편견과 불평등한 채용 관행을 그대로 학습한 알고리즘은 기존의 인사 담당자들과 다를 바 없이 행동했다.


  알고리즘은 분명 인간의 삶에 큰 도움을 준다. 그러나 알고리즘에 대해 무한한 낙관을 가지는 데에는 아직 조심스러울 필요가 있다. 많은 사례를 통해 알 수 있듯이 알고리즘은 전능하지도, 공정하지도 않다. 결국, 사람이 만든 시스템이라서다. 주의가 없는 알고리즘의 사용은 인간의 유구한 차별을 오히려 가속 시킬지도 모른다. 혁신에 대한 평가와 더불어, 위험성에 대한 인지와 토론도 함께해야 할 때다.

 

조현석 기자, 문정호·원지현 수습기자


댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글 1
0 / 400
댓글쓰기
계정을 선택하시면 로그인·계정인증을 통해
댓글을 남기실 수 있습니다.
독자 2023-01-12 18:47:39
기사 잘 읽었습니다. 이제 와서 알고리즘에 대해 기사를 작성하는 건 시의성이 떨어진다고 생각은 듭니다만... 전체적인 내용이 풍성하고 독자들에게 한번쯤은 알려주면 좋은 기사라 생각됩니다. 기사 작성을 위한 많은 자료조사 등이 필요했을 것 같네요. 다만, 차별사례를 주위에서 찾아 넣어줬으면 더욱 좋았을 것 같습니다.

  • 경상남도 창원시 마산합포구 경남대학로 7 (경남대학교)
  • 대표전화 : (055)249-2929, 249-2945
  • 팩스 : 0505-999-2115
  • 청소년보호책임자 : 정은상
  • 명칭 : 경남대학보사
  • 제호 : 경남대학보
  • 발행일 : 1957-03-20
  • 발행인 : 박재규
  • 편집인 : 박재규
  • 경남대학보 모든 콘텐츠(영상,기사, 사진)는 저작권법의 보호를 받은바, 무단 전재와 복사, 배포 등을 금합니다.
  • Copyright ©2024 경남대학보. All rights reserved.
ND소프트