지난해 11월 OpenAI에서 공개한 챗GPT의 열풍이 가열차게 불고 있다. 아무리 어려운 질문에 대해서도 챗GPT는 불과 몇 초 만에 그럴듯한 대답을 척척 내놓는다. 텍스트뿐만 아니라 이미지 인식도 대단한 듯하다. 그런가 하면 주어진 조건에 맞게 시를 짓고 작곡도 하고 도표도 일목요연하게 그린다. 엑셀이나 코딩 실력은 엄청나다. 생성형 인공 지능으로 일컬어지는 챗GPT가 장차 사회 전반에 초래할 엄청난 변화를 생각해 볼 때 인공 지능 기술은 이제 새로운 세계를 열고 있는 듯하다.
특히 챗GPT가 교육 현장에 미칠 영향은 즉각적이고 심각해 보인다. 그 활용 여부를 두고 외국 대학은 물론이고 국내 대학마다 여러 입장을 앞다투어 발표하고 있다. 챗GPT를 포함하여 인공 지능에 대한 교육을 전폭적으로 확대해야 한다는 주장이 설득력을 더욱 얻고 있는 가운데 일부 대학에서는 인공 지능교수학습가이드라인을 발표하는 등 발 빠르게 대처하고 있다. 그러나 챗GPT를 학생들에게 허용하는 것에 대한 반대의 목소리도 결코 적지 않다. 왜냐하면 챗GPT가 학생들의 창의력 증진을 방해할 뿐만 아니라 표절에 대해 무감각하게 만들어 결국은 지적 절도 행위를 저지르면서 윤리 의식 자체를 훼손할 수 있기 때문이다.
특히 세계적 권위를 인정받고 있는 학술지 사이언스(Science)에서는 학술 논문 심사에 대한 새로운 가이드라인을 발표하면서 챗GPT가 생산한 도표나 이미지를 사용할 경우 연구 부적절 행위로 간주하겠다고 선언하였다. 이와 쌍벽을 이루는 네이쳐(Nature) 역시 인공 지능은 책임 능력과 설명 능력이 없다는 이유 때문에 학술 논문의 저자가 될 수 없다고 선언하였다. 세계적인 언어학자인 노암 촘스키 역시 챗GPT는 ‘거짓 약속’에 불과하며 결국 우리의 학문과 윤리를 격하시킬 것이라고 경고한다.
그럼에도 불구하고 챗GPT와 유사한 인공 지능 기술은 더욱 확산할 것이고 이런 기술을 통해 디지털 정보들이 폭발적으로 재생산될 것이다. 그런데 최근 한 보고에 따르면 전문학술지의 심사자들조차 챗GPT 등 인공 지능 기술을 통해 재생산된 자료 중 60% 정도밖에 확인하지 못하였다고 한다. 이런 상황에서 무엇보다 중요한 것은 디지털 리터러시이다. 디지털 리터러시란 디지털 정보를 제대로 이해할 수 있는 능력을 말한다. 챗GPT는 OpenAI에서 스스로 밝히고 있듯이 ‘그럴듯한’ 이야기를 지속적으로 재생산하지만 현실이 정말 그렇다는 보장은 전혀 하지 않는다. 인공 지능이 재생산한 내용이 현실과 일치하는지 냉철히 판단할 수 있는 능력, 즉 통계적 가능성에 매몰되어 앵무새처럼 지저귀는 것이 아니라 ‘사이비’ 정보에 현혹되지 않는 건강한 이해 능력을 갖추는 것이 무엇보다 시급하다.