[비하人드 AI]‘AI포비아’와의 사투…AI와 함께할 미래를 묻다
1991년 개봉한 할리우드 영화 ‘터미네이터2’에서 인공지능(AI)이 만든 살인 로봇 T-1000은 인류 저항군 사령관을 죽이기 위해 과거로 쫓아 온다. 2004년 개봉한 ‘아이 로봇’에서는 인간이 정한 규칙을 어기고 빨간 눈을 뜬 휴머노이드 로봇이 ‘인간 사냥’에 나서기도 한다. 이런 영화를 보며 대중들의 마음속에는 알게 모르게 AI가 인류를 지배할 것이란 두려움이 쌓였다. 다가온 AI시대 ‘AI포비아’ 극복이 주요한 과제로 자리매김한 이유기도 하다.
지배당할 것인가, 이용할 것인가. 서울신문은 올해 ‘AI SEOUL 2025’에 참석한 인공지능 분야 세계적인 거장 제리 카플란(Jerry Kaplan) 미국 스탠퍼드대 교수와 요수아 벤지오(Yoshua Bengio) 몬트리올 대학교 교수의 제언과 ‘AI 변호사’로 알려진 임영익 인텔리콘 대표이사와의 인터뷰를 소개한다.
“킬러로봇 나온다면 인공지능 아닌 인간의 잘못”-‘인공지능의 미래’ 제리 카플란 교수
AI에 대해 대중은 오해하고 있는 것이 있습니다. 인공지능이 더 똑똑한 기계를 만들어 인간과 경쟁해 많은 사람의 일자리를 뺏고, 통제되지 못해 파멸로 이를 수 있다는 생각입니다. 이런 생각은 영화와 공상과학 소설로 강화되기도 합니다.
그러나 다행히도 현실은 이런 관점을 반영하지 않습니다. 사실 저는 이 분야의 원죄가 이름에 있다고 봅니다. ‘지능’이란 단어는 인간이 가지고 있는 정량화할 수 있는 특성으로, 객관적으로 측정할 수 있는 것입니다. AI를 지능이라는 틀에서 생각하면 여러 오해가 생깁니다. AI가 스스로 생각하고 인류를 직접적으로 위협할 수 있다는 것이죠. AGI(인공 일반 지능 ; 인간이 할 수 있는 어떠한 지적 업무도 할 수 있는 기계의 지능) 또는 범용 AI에 대해 들어보셨을 겁니다. 현재 인공지능 기술이 이 신화적인 단계에 도달했는지 여부는 뒤로하더라도, 기계가 어떻게든 의식을 가지고 그들의 프로그래밍을 무시하고 자신들만의 프로그램을 구축해 인류를 위협할 것이란 근거는 없습니다. 물론 (AI를 이용해) 위험한 기기를 만들 수 있는 건 사실입니다. 하지만 그들이 스스로 우리에게 무언가를 하는 건 아닙니다. 만약 우리가 인류를 절멸시킬 기계를 만들겠다고 결정하면 그건 그들(AI)이 아닌 우리의 잘못입니다.
그렇다면 컴퓨터가 인간의 의미에서 지능을 가지고 있지 않다면 무엇일까요. 저는 문제를 해결하고 작업을 자동화하는데 유용한 도구라고 말하겠습니다. 그렇다면 우리가 자동화 설비를 도입하며 수행한 과정을 보며 앞으로를 예측할 수 있습니다. 사람의 노력과 주의가 필요한 일을 기계를 통해 할 때 더 생산적이게 되고, 평균적으로 더 부유하게 만들어줍니다. 단기적으로 일부 사람은 일자리를 잃겠지만, 역사적으로 봤을 때 AI는 제품과 서비스에 대한 새로운 수요를 창출할 것입니다.
인공지능 스스로 인류 위협할 근거 없어‘AI포비아’는 과장된 광고의 결과투자 포화…‘붕괴 우려’ 지적사실 AI는 과장 광고의 정점에 있거나 정점에 가까워졌습니다. 특히 생성형 AI 발전은 이미 둔화하고 있고 연구자들은 한계에 대해 관심을 가지고 있습니다. 언론은 새로운 기술이 성과를 보일 때마다 마치 모든 것을 할 수 있는 초지능 기계가 탄생한 것처럼 받아들입니다. 대중에게 두려움을 주고 또 경종을 울립니다. IBM 체스 프로그램이 체스챔피언을 이겼을 때도, 2011년(IBM의 인공지능 컴퓨터가 미국 퀴즈쇼에 우승한 연도)에도 그랬고 2016년 구글 알파고가 이세돌을 이겼을 때도 마찬가지였습니다. 그럴 때마다 사람들은 초지능 기계가 눈앞에 있는 것처럼 걱정했지만, 사실은 그렇지 않았습니다. 챗GPT가 뛰어나긴 하지만 이것도 아직 초지능 기계라 할 수 없습니다.
향후 몇 년간의 전망은 어떨까요. 생성형 AI는 인류 역사상 중요한 발명 중 하나입니다. 하지만 위대한 발명이라 볼 수는 없습니다. 농업이나 바퀴, 카메라, 컴퓨터, 자동차, 인터넷 등이 위대한 발명이라고 할 수 있습니다. 이들은 하룻밤에 만들어지지 않았습니다. 오늘날 많은 기업이 그들의 생성형 AI가 경쟁사를 이길 수 있다는 걸 보여주기 위해 경쟁합니다. 제품에 AI를 더해 고객에게 주는 것은 몇 년 길게는 수십 년은 걸릴 겁니다. 아마 그 과정에서 위대한 발명이 나올 거라 생각합니다.
몇 가지 조언을 드리고 싶습니다. 투자자라면 AI분야에서 이익을 얻는 게 매우 어렵다는 것을 아셔야 합니다. 이미 너무 많은 돈이 저품질 데이터 산업에 투입되고 있습니다. 저는 이 시장이 곧 붕괴할 것이라 생각합니다. 닷컴버블 때처럼요. 기업이라면 생성형 AI를 어떻게 활용할지 직원들이 고민하고 실험해 볼 수 있도록 기회를 줘야 합니다. 결국 AI가 어떤 도움이 되는지 아닌지를 볼 수 있는 최적의 위치에 있는 건 직원들입니다. 소비자라면 걱정하지 말라고 말씀드리겠습니다. 킬러 로봇은 나오지 않을 것이고, 모든 것이 시간이 조금 더 걸릴 겁니다. 투자자와 기업들이 여러분이 원하는 것을 만드는 데 돈을 쓰도록 하면 됩니다. 새로운 서비스가 여러분을 놀라게 할 거고, 삶의 질은 개선될 겁니다. 인터넷과 스마트폰이 지난 수십년간 그래왔던 것처럼 말입니다. 아마 5년 후에는 오늘날처럼 AI에 대해 많이 말하지 않을 겁니다. (그때는)AI가 컴퓨터 칩이나 블루투스 연결처럼 대부분 제품에 내장된 서비스에 하나가 될 것입니다. 개인적으로 이런 세계적 변화를 가져오는 발명을 목격해 기쁘고, 삶에 주는 영향을 겪어보길 고대하고 있습니다.
“우리보다 더 똑똑한 기계 만들고 있다는 점 잊지 말고 경계해야”-‘튜링상’ 수상자 요수아 벤지오 교수
오늘날 AI가 안전한지는 어디에 초점을 보고 살펴봐야 할까요.
우선 오늘날 보는 AI가 몇 년 후에 보게 될 AI와 같지 않을 것이란 점을 이해해야 합니다. 지난 10년 동안 매우 분명한 방향성이 있었습니다. 일관된 텍스트를 생성할 수 없었던 AI가 이제는 200개 언어를 마스터하고 과학 분야에서 박사급 전문가만큼 뛰어난 성과를 내고 있습니다. 수학과 공학, 추론 작업에도 우수한 성과를 보여주며 많은 분야에서 인간 수준의 능력에 근접하거나 이를 초월했습니다. 이는 멈추지 않을 겁니다. 올해 발전된 모델은 인간의 심사숙고 과정을 학습해 추론 능력을 크게 개선했다는 것을 보여줍니다. 그래서 또 우리는 AI 안전성을 고려해야 합니다. 우리가 사는 세상의 역학은 (AI의 안전성을) 무시하도록 몰아가고 있습니다. 기업, 국가가 서로 치열하게 경쟁하며 위험을 보지 않는 것이죠.
위험을 관리하기 위해서는 두 가지 주요 영역에 개입해야 합니다. 하나는 정책, 하나는 과학 측면입니다. 정책 부분은 국가 차원에서 법률이나 국제 또는 사법적 개입을 통해 행동 규칙을 확립해야 합니다. 그러면서 AI가 사회에 보급되며 경제적으로 어떤 영향을 미칠지도 고려해야 합니다. 예를 들어 일자리 시장의 혼란이 가중될 수 있습니다. 점점 더 많은 화이트칼라 작업이 자동화로 이동하고 있다는 점이 증거입니다. 국가 안보 위험도 있습니다. 개인이든 기업이든 나쁜 세력들, 예컨대 테러리스트 그룹, 불량 국가 등이 최첨단 AI를 악용할 위험도 있습니다.
또 정책적 고민을 할 때 우리가 우리보다 더 똑똑한 기계를 구축하는 길을 가고 있다는 점을 잊지 말아야 합니다. 만약 이런 시스템이 의도치 않게 우리 시스템의 통제를 벗어나 탈출하려 하거나 또는 꺼지지 않으려 할 수도 있습니다. 비록 가설적인 상황이라 할지라도 이를 예상하고 대비해야 합니다.
AI 사회 보급…일자리·안보 등 혼란 우려연구 통해 ‘통제 수단’ 개발해야하드웨어 선두주자 한국, 앞으로 중요성 커져과학적 측면에서의 문제는 시스템이 우리의 의도를 거슬러 행동하지 않도록 설계하는 방법을 아직 모른다는 겁니다. AI가 어떤 목표를 가지고 실현하는 방식이 인간에게 해롭지 않을지 확신할 수 없습니다. 이를 해결하기 위해 AI를 통제하고 검증할 수 있어야 합니다. 문제가 어떻게 발생할 수 있는지, 예방은 어떻게하는지, 연구를 통해 위험을 더 잘 평가하고 정량화해야 할 겁니다.
전세계 AI 안전성과 관련된 연구소들은 최근 위험 평가의 방법론과 기준을 점차 표준화하고 있습니다. 저는 주체성이란 것이 시스템에서 어떻게 형성될 수 있는지 이해하는 게 가장 중심적인 과제라 생각합니다. 아예 주체성이 없는 신뢰할 수 있는 AI 시스템을 구축하는 방법을 모색하는 것이 연구자로서 현재 가장 관심이 가는 사항 중 하나입니다. 이는 아직은 해결되지 않은 질문 중 하나입니다.
정책적으로 이런 문제를 학계와 산업계가 연구할 수 있도록 유도할 수도 있습니다. 예를 들어 AI개발자들에게 시스템이 안전하다고 여기는 이유와 근거를 의무적으로 제출하고 전문가들을 설득하도록 한다면 시스템을 보다 신뢰할 수 있을 겁니다. 안전성에 대한 더 많은 연구도 이뤄지겠죠.
한국은 AI 연구의 선두주자 중 하나입니다. 탁월한 연구 대학이 많고 실력 있는 많은 인재를 육성하고 있습니다. AI에 대한 인재풀도 강력합니다. 기계 학습 분야의 최고 학회들에 많은 논문을 발표하고 있고, 산업적 측면에서 보더라도 한국은 소프트웨어뿐만 아니라 하드웨어에서도 매우 강력한 입지를 유지하고 있습니다. 특히 한국이 고해상도 AI 칩 분야의 리더란 점은 굉장히 중요한 요소로 작용할 겁니다.
앞으로도 AI 진화에 대한 중요한 논의들이 이어질 겁니다. 인간이 미래의 위험을 감수하지 않고 새로운 기술의 혜택을 누릴 수 있는 현명한 개발 방식을 마련하도록 논의를 이어가길 바랍니다.
“AI 오류 피해, 책임 소재 명확히 해야”-인공지능법률사무소 ‘인텔리콘’ 임영익 대표
-AI 활용도가 점점 더 높아지는 시대, 현재 AI는 공정하다고 보시나요.
“AI는 인간을 배웁니다. 그런데 인간은 종교, 신념, 이념 등 생각의 프레임 또는 특정한 사고 체계를 가지고 있어 말이나 행동에서 편향적 행동이나 인지 편향을 보입니다. 결국 AI는 인간에게서 편향성도 배우기 마련입니다. AI의 편향을 막기 위한 다양한 연구가 현시대에 놓인 주요한 과제입니다.”
-편향성을 막기 위해 어떤 방법이 사용되고 있나요.
“현재는 AI의 편향을 사후적으로 제거하는 방법으로 3가지가 대표적입니다. 휴먼 피드백 강화학습은 학습된 모델이 내놓은 답변을 사람이 검토하고 피드백해 모델에 재학습(강화학습)해 편향을 줄이는 방법이고, 미세 조정은 이미 학습된 모델에 새로운 데이터를 추가로 학습시키는 방법인데 예를 들어 성별 균형이 맞춰진 데이터를 학습시켜 성별 편향을 줄이는 방법입니다. 마지막으로 출력 후처리 기법은 AI가 답변을 생성한 후 사람이 검토하고 수정하거나 AI 내부에 ‘이 답변이 공정한가’를 확인하고 점검하는 로직을 추가하는 방식입니다. 다만, 이런 방법도 완전하지 않습니다. 공정성을 판단하는 주체가 결국 인간이기 때문에 모든 사람을 만족하는 공정성이라는 것은 애초에 어려운 것이 될지 모릅니다. 그래도 인공지능의 공정성은 그 사회의 문화나 상황에 따라 변할 수 있는 ‘유동적 공정성’ 정도는 만족해야 합니다.”
-편향된 AI는 사회적으로 악용될 여지가 있을까요.
“가능성이 있습니다. 고도로 발전한 기술을 통해 사실을 교묘히 조작하고 가짜 뉴스를 대량으로 생산할 수 있습니다. 딥페이크 기술을 악용해 허위 정보를 유포하는 사례는 이미 현실로 드러난 바 있습니다. AI챗봇과 자동화된 댓글 시스템은 특정 이슈에 대한 여론을 조직적으로 조작하는 수단이 될 수도 있습니다. 정치적 편향성과 알고리즘 조작은 심각한 사회적 위험을 초래할 수 있습니다. 개발자가 의도적으로 편향된 데이터를 입력하면 특정 정치적 성향이나 이념을 강화하는 결과를 초래할 수 있고, 사용자들은 자신도 모르게 특정 관점에 영향을 받을 가능성이 높아집니다. 또 AI기술은 일부 국가나 정치인들이 대중을 감시하는 수단으로 악용될 수도 있고, 광범위한 개인정보 침해 문제도 내포하고 있습니다.”
공정한 AI 불가?…‘유동적 공정성’에 만족해야 할수도심각한 사회적 위험 초래 가능성 내포지속적이고 균형 있는 정책 보완 필요-AI가 인간의 일자리를 뺏어갈까요.
“AI발전이 새로운 직업군을 만들어내고 양질의 일자리를 창출하는 데 기여할 것이란 점엔 이견이 없습니다. 하지만 현실적으로 AI가 만들어내는 일자리보다 사라지는 일자리가 더 많을 수 있습니다. 콜센터 상담원, 단순 사무직, 공장 근로자 같은 직업은 줄어들 가능성이 큽니다. 이런 문제를 해결하기 위해 몇가지 대응이 필요합니다. 첫째로 AI 관련 기술을 배우고 활용할 수 있도록 교육 기회를 확대하고 직업 재훈련 프로그램을 강화해야 합니다. 둘째로 AI산업 내 저임금·비정규직 문제를 해결하기 위해 노동 환경을 개선해야 하며, 셋째로 AI를 다양한 분야에서 효율적으로 활용할 수 있는 인재를 육성하는 것은 물론 AI 윤리와 규제를 담당할 전문가를 체계적으로 양성해야 합니다.”
-AI산업 진흥과 규제를 위해 어떤 정책 및 제도적 지원이 필요할까요.
“지난해 AI 기본법이 국회를 통과한 것은 국내 AI산업에 중요한 첫걸음입니다. 지속적이고 균형 있는 성장을 위해서는 다양한 분야에서 정책적 노력이 요구됩니다. 첫째로 AI윤리와 책임성을 강화해야 합니다. AI개발과 활용 과정에서 윤리적 기준을 명확히 하기 위해 가이드라인 수준이 아닌 더욱 구체적인 기준을 마련해야 할 필요가 있습니다. AI시스템의 오류 등으로 피해가 생겼을 때 개발자, 운영자, 사용자 간 책임 소재도 명확히 정의해야 합니다. 둘째로 AI 기술의 표준화와 안전성을 확보해야 합니다. 성능과 안전성을 체계적으로 평가할 수 있는 프로세스 구축과 국제적인 AI 규범에 맞춰 기술 표준을 정립하고 글로벌 협력과 공동 연구로 국제 경쟁력을 확보해야 합니다. 나아가 AI시스템의 오작동이나 예상치 못한 결과를 사전에 검증할 수 있는 독립적인 AI 안전 연구소에 많은 예산을 투입해야 할 것입니다. 세 번째로 AI 인력을 양성하고 산업 경쟁력을 강화해야 합니다. 초·중·고 교육과정에 AI 기초 교육을 포함하는 것과 함께 성인을 대상으로 한 재교육 프로그램을 마련해 미래 인재와 성인이 새로운 산업 환경에 적응할 수 있도록 해야 합니다. 창업지원, 연구개발 투자 확대, 세제 혜택 확대 등으로 AI 스타트업 성장도 적극적으로 촉진해야 합니다.”