우려한 대로다. 그러려니 했지만 빨라도 너무 빠르다. ‘챗GPT’로 더 후끈 달아오른 AI세상에 그로인한 부작용도 관심사로 부상하기 시작했다.
국내 한 국제학교에서 영문에세이 작성에 챗GPT를 이용한 학생들을 0점 처리한 사례가 나왔다. 일종의 부정행위로 본 것이다. 학교 측은 과제 작성에 AI 프로그램을 사용했는지를 확인하는 표절검사 애플리케이션(앱)으로 적발했다.
한국문학번역원은 2022년 한국문학번역상 웹툰 부문 신인상을 받은 일본인 마쓰스에 유키코 씨가 번역AI를 사용했는지를 확인 중이라고 8일 발표했다. 마쓰스에 씨는 한국어를 잠깐 배웠을 뿐 유창하다고 하긴 어려운 수준이다. 번역원은 한국 문화에 대한 수용도를 평가한다는 상의 취지에 어긋난다며 수상자 선정 취소를 고민 중이다.
이 같은 AI 부작용은 한 단면일 뿐이다. AI 윤리 문제는 개발 초기부터 문제로 지적돼왔다. 오죽하면 챗GPT를 개발한 오픈AI사가 대필이나 표절 판별 프로그램(클래시파이)을 만들어 무료로 공개했을까.
문제는 이 같은 방지책이 완전하지 못하다는 점이다. 단어를 좀 바꾸고 문장을 손질하면 잡아내기 어렵다. 10명이 지켜도 도둑 하나를 막기 힘든 것과 마찬가지다.
실제로 클래시파이는 AI가 쓴 글의 26%만 제대로 골라냈을 뿐이다. 심지어 인간이 직접 쓴 글 중 10% 가까이를 ‘AI가 쓴 글’이라고 잘못 판단했다. 어설픈 판별 수준인데도 빨리 내놓지 않을 수 없을 정도로 급했다는 의미다. 부작용에 대한 우려는 그만큼 크다.
그럼에도 AI는 이제 거스를 수 없는 대세다. 어디에나 존재하는 유비쿼터스다. 효과도 그만이다. 개인맞춤형 항암 백신에 AI를 사용하면 무한대에 가까운 경우의 수 실험이 불필요해지고, 스스로 상황을 판단하는 무인 안전로봇은 위험한 건설 현장의 최고 해결사다. 이젠 종목 투자 분석과 추천을 AI인 로보어드바이저가 대신한다. 이용하는 사람들이 윤리로 무장해 부작용을 줄이는 수밖에 없다. 일탈하려는 사람들과의 술래잡기는 영원하다. 구더기 무서워 장 담그기를 포기할 수는 없다.
그래서 필요한 것이 AI교육이다. 기초를 다져야 튼튼한 집을 지을 수 있다. AI가 가져오는 편익은 물론 가공할 위험에 대한 지식을 쌓도록 해야 한다. 당장의 관련 인력은 물론 미래의 사용자, 개발자가 될 어린 학생들에게도 필요한 일이다. 미국에선 이미 지난해 10월 그런 내용의 ‘인공지능교육법’(AI Training Act)이 제정됐다.
시간이 없다. 지금 시작해도 늦다.