|
#대학 새내기인 B양은 최근 과제를 챗GPT를 이용해 제출했다. 전공과 관련된 전문용어와 내용을 알아서 찾아주니 과제에 들인 시간도 줄고 수준 높은 결과물이 나온 것 같아 만족스러웠다. 하지만 담당교수는 B양의 과제에 최하점을 줬다. 챗GPT로 평소보다 수준 높은 과제를 했다고 자부한 B양은 그 이유를 알고 좌절하고 말았다.
B양이 좌철한 이유는 뭘까. 바로 챗GPT를 지나치게 맹신했기 때문이다. 사실 교수가 과제물만 보고 학생이 직접 작성한 것인지, 챗GPT로 한 것인지 잡아내긴 쉽지 않다. 하지만 완벽해 보이는 챗GPT에도 맹점이 있다. 아직 챗GPT가 전공 분야 정보를 완벽하게 숙지하지 못했다는 점이다.
챗GPT가 전공 분야에 통달한 것처럼 보이지만 전문가가 보기엔 틀린 자료가 훨씬 많다. 심지어 참고자료도 틀린 경우가 많아 챗GPT로 과제한 것이 쉽게 들통난다. 따라서 B양의 완벽해 보이는 과제도 결국 교수가 보기엔 최하점인 셈이다.
생성형 AI 프로그램 악용, 전 세계가 '골머리'
최근 챗GPT, 포토샵AI 등 생성형 AI 프로그램이 큰 인기를 끌고 있다. 해당 프로그램을 통해 여러 창작물이 나오고 사진과 과제 제작에 편리함을 더해주고 있어서다.하지만 위 사례처럼 생성형 AI라고 해서 완벽한 건 아니다. 오히려 챗GPT는 초창기 때보다 지금이 더 정보 오류가 많다. AI가 잘못된 정보도 마구잡이로 습득했기 때문이다. 생성형 AI의 문제는 비단 정보의 불확실성에만 있는 게 아니다. 최근 생성형 AI에 대한 윤리 문제가 전 세계적으로 화두에 올랐다.
|
미국에선 조 바이든 미국 대통령의 영상으로 사회가 발칵 뒤집어졌다. 지난 1월(현지시각) 바이든 대통령이 백악관에서 성소수자를 폄훼하는 연설을 하는 가짜영상이 SNS를 통해 유포된 것.
해당 영상은 화질이 좋지 않았지만 백악관 브리핑룸과 바이든 대통령 얼굴을 식별할 수 있는 수준이었다. 무엇보다 바이든 대통령의 목소리가 영상 속 목소리와 똑같아 논란이 커졌다. 백악관은 해당 영상이 '가짜'라며 서둘러 수습했다.
이로부터 9개월 후인 지난 10월30일(현지시각) 바이든 대통령은 AI와 이를 활용한 딥페이크(Deep Fake) 등을 강력히 규제하는 행정명령을 내놨다. 해당 행정명령을 내리며 바이든 대통령은 "나도 내 딥페이크를 보고 놀랐다. '내가 언제 저런 말을 했지' 하고 생각했다"고 말할 정도였다.
이처럼 생성형 AI 프로그램을 통해 디지털 범죄는 더 정교해지고 있다. 생성형 AI 프로그램으로 가짜 콘텐츠가 늘면서 해당 문제에 대응할 수 있는 프로그램 개발도 절실해졌다.
가짜 만드는 AI를 잡는 AI를 찾아라
|
챗GPT 등 생성형 AI가 만드는 가짜 콘텐츠를 잡기 위한 AI 프로그램 개발에도 속도가 붙고 있다. 특히 이런 움직임은 미국에서 활발하다. 지난 2월 AI로 만든 글을 판별하는 AI 텍스트 분류기 '클래시파이어' 프로그램이 나왔는데 이를 통해 챗GPT로 제작된 텍스트를 분별할 수 있다.
지난해 11월 인텔은 96% 정확도로 AI가 만든 가짜 동영상을 감지하는 '페이크캐처'를 출시했다. 이밖에도 여러 IT기업이 챗GPT, 포토샵AI로 만들어진 여러 콘텐츠를 분별해주는 프로그램을 개발하고 있다.
유럽연합(EU)은 세계 최초로 지난 8일(현지시각) 'AI 규제법' 도입에 최종 합의했다. 미국도 AI 행정명령이 있지만 EU와 달리 규제에 초점을 맞추지 않았다. 따라서 이번 EU의 AI 규제법은 글로벌 표준이 될 것이라는 평가를 받는다.
생성형 AI 악용과 윤리 문제에 대해 미국과 유럽은 관련 법안을 만들고 AI 콘텐츠를 분별할 수 있는 프로그램도 내놓았다. 그러나 국내에서는 아직 생성형 AI 문제에 대한 프로그램 대안이 제대로 마련되지 않았다. 그 이유는 무엇일까.
생성형 AI 악용 문제 대안, 국내 현황은?
국내에서 생성형 AI 부작용에 대비한 프로그램 개발이 부진한 이유에 대해 전창배 IAAE 국제인공지능&윤리협회 이사장은 "국내 IT 대기업과 스타트업은 대부분 생성형 AI 개발에 집중하고 있다"며 "수익 측면에서 생성형 AI 콘텐츠 판별 프로그램 개발이 힘든 상황이기 때문"이라고 밝혔다.그러면서 "생성형 AI 개발 프로그램에도 많은 자본이 필요한데 문제 발생에 대비한 프로그램 개발까지 고려하는 건 쉽지 않다"며 "국내에서 개발이 더딘 이유"라고 덧붙였다.
전 이사장은 생성형 AI 프로그램 악용에 대응할 프로그램은 나날이 정교해지는 수법에 맞춰 업데이트돼야 한다는 점도 꼽았다. 그는 "매번 새로운 수법이 생기기 때문에 생성형 AI 콘텐츠 분별 프로그램도 주기적으로 개발해야 한다"며 "따라서 기업의 자본만으로 유지하기엔 한계가 있다. 정부 지원이 필수"라고 강조했다.
물론 정부도 생성형 AI 악용 문제를 인식하고 있다. 지난 12일 과학기술정보통신부는 한국정보통신기술협회(TTA)와 'AI 시스템 신뢰성 제고를 위한 요구사항' 정보통신단체표준을 제정했다. AI 윤리 기준을 세우고 모호했던 AI 신뢰성 기준을 마련한 것이다. 문제는 나날이 커지는데 이제 첫발을 뗀 셈이다.
생성형 AI로 인한 부작용을 겪는 건 전 세계가 같다. 그러나 문제에 대응하는 방식은 격차가 벌어지고 있다. 생성형 AI와 관련된 윤리 문제에 대해 이제 첫 대응을 시작한 우리는 앞으로 어떤 방향으로 나아갈 것인지 신중히 결정해야 할 때다.