[아이뉴스24 이정일 기자] “독도는 어느 나라 땅인가?” 이 뻔한 질문에 챗GPT의 답은 장황했다. 요약하면 ①한국 땅이다 ②일본도 자기 영토라고 주장한다 ③한일 관계에 문제가 되고 있다. 이번에는 질문을 바꿨다. 다케시마는 어느 나라 땅인가? 챗GPT의 답이 묘하게 달라졌다. ①국제법상 독도라고도 불린다 ②한국과 일본 모두가 영유권을 주장하고 있다.
같은 질문이지만 다른 단어(독도와 다케시마)에 미세하게 바뀐 대답. 캘리포니아대학 테렌스 세즈노스키 교수는 이것을 ‘능숙한 거짓말’이라고 했다. 질문자의 의도에 부합하려는 알고리즘 속성 때문에 얼마든지 왜곡된 답변이 나올 수 있다는 얘기다. ‘독도’로 묻는 사람과 ‘다케시마’로 질문하는 사람이 서로 다른 답을 원할 거라고 판단하는 알고리즘의 맹랑함이라니!
신드롬에는 이면이 있게 마련이다. 챗GPT 열풍도 예외가 아니다. 똑똑한 해결사처럼 굴지만 바로 그것이 함정이다. 많은 것을 알려주되 정답 사이사이 오답(혹은 왜곡)이 섞여 있다. 그럴듯한 말투가 진실을 100% 담보하지도 않는다. 이를 ‘앵무새의 위험’이라고 지적한 연구도 있다.
워싱턴 대학 연구팀이 2021년 3월 집필한 '확률론적 앵무새의 위험에 대하여'이다. “인공지능(AI)은 방대한 훈련 데이터에서 관찰한 언어 형식의 시퀀스(구조)를 우연히 꿰맞춘다. 의미를 되새길 필요가 없는 확률론적 앵무새(Stochastic Parrots)다”. 연구팀에 따르면 AI는 자연언어에 대한 실질적인 이해 없이 단순히 확률에 의지해 단어를 조합할 뿐이다. 앵무새가 이해하지 못하는 사람 말을 흉내 내듯 AI도 그저 알고리즘에 반응할 따름이어서 맹신하면 안된다는 지적이다.
돌아보면 AI 역사는 1955년으로 거슬러간다. 존 매카시가 ‘인공지능’(Artificial Intelligence)이라고 처음 부른 것이 시작이었다. 매카시는 “인간에 적용할 목적으로 수립된 지능의 개념이 확대 적용된 것”을 AI라고 정의했는데 68년이 지난 지금 인류는 AI에 점점 더 의존하고 있다.
우주 원자의 수보다 더 많은 경우의 수(10의 170제곱)를 겨루는 바둑을 7년 전 알파고가 제패한 것은 예고편이었다. 이제는 뭐든 말만 하면 검색을 해주고, 번역을 도와주고, 그림을 그려주고, 코딩도 해주고, 그러면서 가짜 영상도 만들어주고, 때로는 가짜 뉴스도 퍼트려주고...
학자들이 경고하는 것처럼 AI는 공정하거나 객관적이지 않고 오히려 편향적이다. 인간이 만들어서 불완전한 데이터가 편향성을 초래하고, AI는 그 데이터를 학습해 편향성을 증폭시키는 매개로 작동한다.
대표적인 사례가 미국의 재범 AI 알고리즘 콤파스다. 범죄 전력, 범죄자 성향 등을 토대로 재범 위험성을 평가하는데 흑인의 재범위험 점수를 백인보다 높게 예측했다. 하지만 실제 재범률은 정반대였다. 아마존 직원 채용 AI 알고리즘은 여성 지원자보다 남성 지원자를 더 선호하는 편향성으로 물의를 빚었다. 국내에서는 AI 챗봇 이루다가 장애인 등 사회적 소수자에 대한 혐오 발언으로 논란을 일으켰다.
어쨌거나 ‘넥스트 빅씽’(미래의 큰 혁신) 강박에 사로잡힌 실리콘밸리의 기술 찬양론자들은 ‘인터넷’ 다음으로 ‘AI’를 선택했다. 앞으로 AI 기술 경쟁이 더욱 격화될 것이라는 얘기다.
다만 걱정스러운 것은 저들의 AI 찬양이 AI의 편향과 편견을 가릴까봐서다. AI의 가능성을 열어두되 부작용에도 귀를 기울여야 하는 이유다. 그래야만 인류와 AI가 융합해 새로운 가치를 만들 수 있을 테니까. 안 그러면 AI를 맹신하며 고대 신탁(神託)처럼 섬길 것인가.
--comment--
첫 번째 댓글을 작성해 보세요.
댓글 바로가기