찾아보고 싶은 뉴스가 있다면, 검색
검색
최근검색어
  • 알파고
    2026-03-08
    검색기록 지우기
  • 전시회
    2026-03-08
    검색기록 지우기
  • 고양
    2026-03-08
    검색기록 지우기
  • 충청북도
    2026-03-08
    검색기록 지우기
  • 상여금
    2026-03-08
    검색기록 지우기
저장된 검색어가 없습니다.
검색어 저장 기능이 꺼져 있습니다.
검색어 저장 끄기
전체삭제
912
  • [비하人드 AI]‘AI포비아’와의 사투…AI와 함께할 미래를 묻다

    [비하人드 AI]‘AI포비아’와의 사투…AI와 함께할 미래를 묻다

    1991년 개봉한 할리우드 영화 ‘터미네이터2’에서 인공지능(AI)이 만든 살인 로봇 T-1000은 인류 저항군 사령관을 죽이기 위해 과거로 쫓아 온다. 2004년 개봉한 ‘아이 로봇’에서는 인간이 정한 규칙을 어기고 빨간 눈을 뜬 휴머노이드 로봇이 ‘인간 사냥’에 나서기도 한다. 이런 영화를 보며 대중들의 마음속에는 알게 모르게 AI가 인류를 지배할 것이란 두려움이 쌓였다. 다가온 AI시대 ‘AI포비아’ 극복이 주요한 과제로 자리매김한 이유기도 하다. 지배당할 것인가, 이용할 것인가. 서울신문은 올해 ‘AI SEOUL 2025’에 참석한 인공지능 분야 세계적인 거장 제리 카플란(Jerry Kaplan) 미국 스탠퍼드대 교수와 요수아 벤지오(Yoshua Bengio) 몬트리올 대학교 교수의 제언과 ‘AI 변호사’로 알려진 임영익 인텔리콘 대표이사와의 인터뷰를 소개한다. “킬러로봇 나온다면 인공지능 아닌 인간의 잘못”-‘인공지능의 미래’ 제리 카플란 교수 AI에 대해 대중은 오해하고 있는 것이 있습니다. 인공지능이 더 똑똑한 기계를 만들어 인간과 경쟁해 많은 사람의 일자리를 뺏고, 통제되지 못해 파멸로 이를 수 있다는 생각입니다. 이런 생각은 영화와 공상과학 소설로 강화되기도 합니다. 그러나 다행히도 현실은 이런 관점을 반영하지 않습니다. 사실 저는 이 분야의 원죄가 이름에 있다고 봅니다. ‘지능’이란 단어는 인간이 가지고 있는 정량화할 수 있는 특성으로, 객관적으로 측정할 수 있는 것입니다. AI를 지능이라는 틀에서 생각하면 여러 오해가 생깁니다. AI가 스스로 생각하고 인류를 직접적으로 위협할 수 있다는 것이죠. AGI(인공 일반 지능 ; 인간이 할 수 있는 어떠한 지적 업무도 할 수 있는 기계의 지능) 또는 범용 AI에 대해 들어보셨을 겁니다. 현재 인공지능 기술이 이 신화적인 단계에 도달했는지 여부는 뒤로하더라도, 기계가 어떻게든 의식을 가지고 그들의 프로그래밍을 무시하고 자신들만의 프로그램을 구축해 인류를 위협할 것이란 근거는 없습니다. 물론 (AI를 이용해) 위험한 기기를 만들 수 있는 건 사실입니다. 하지만 그들이 스스로 우리에게 무언가를 하는 건 아닙니다. 만약 우리가 인류를 절멸시킬 기계를 만들겠다고 결정하면 그건 그들(AI)이 아닌 우리의 잘못입니다. 그렇다면 컴퓨터가 인간의 의미에서 지능을 가지고 있지 않다면 무엇일까요. 저는 문제를 해결하고 작업을 자동화하는데 유용한 도구라고 말하겠습니다. 그렇다면 우리가 자동화 설비를 도입하며 수행한 과정을 보며 앞으로를 예측할 수 있습니다. 사람의 노력과 주의가 필요한 일을 기계를 통해 할 때 더 생산적이게 되고, 평균적으로 더 부유하게 만들어줍니다. 단기적으로 일부 사람은 일자리를 잃겠지만, 역사적으로 봤을 때 AI는 제품과 서비스에 대한 새로운 수요를 창출할 것입니다. 인공지능 스스로 인류 위협할 근거 없어‘AI포비아’는 과장된 광고의 결과투자 포화…‘붕괴 우려’ 지적사실 AI는 과장 광고의 정점에 있거나 정점에 가까워졌습니다. 특히 생성형 AI 발전은 이미 둔화하고 있고 연구자들은 한계에 대해 관심을 가지고 있습니다. 언론은 새로운 기술이 성과를 보일 때마다 마치 모든 것을 할 수 있는 초지능 기계가 탄생한 것처럼 받아들입니다. 대중에게 두려움을 주고 또 경종을 울립니다. IBM 체스 프로그램이 체스챔피언을 이겼을 때도, 2011년(IBM의 인공지능 컴퓨터가 미국 퀴즈쇼에 우승한 연도)에도 그랬고 2016년 구글 알파고가 이세돌을 이겼을 때도 마찬가지였습니다. 그럴 때마다 사람들은 초지능 기계가 눈앞에 있는 것처럼 걱정했지만, 사실은 그렇지 않았습니다. 챗GPT가 뛰어나긴 하지만 이것도 아직 초지능 기계라 할 수 없습니다. 향후 몇 년간의 전망은 어떨까요. 생성형 AI는 인류 역사상 중요한 발명 중 하나입니다. 하지만 위대한 발명이라 볼 수는 없습니다. 농업이나 바퀴, 카메라, 컴퓨터, 자동차, 인터넷 등이 위대한 발명이라고 할 수 있습니다. 이들은 하룻밤에 만들어지지 않았습니다. 오늘날 많은 기업이 그들의 생성형 AI가 경쟁사를 이길 수 있다는 걸 보여주기 위해 경쟁합니다. 제품에 AI를 더해 고객에게 주는 것은 몇 년 길게는 수십 년은 걸릴 겁니다. 아마 그 과정에서 위대한 발명이 나올 거라 생각합니다. 몇 가지 조언을 드리고 싶습니다. 투자자라면 AI분야에서 이익을 얻는 게 매우 어렵다는 것을 아셔야 합니다. 이미 너무 많은 돈이 저품질 데이터 산업에 투입되고 있습니다. 저는 이 시장이 곧 붕괴할 것이라 생각합니다. 닷컴버블 때처럼요. 기업이라면 생성형 AI를 어떻게 활용할지 직원들이 고민하고 실험해 볼 수 있도록 기회를 줘야 합니다. 결국 AI가 어떤 도움이 되는지 아닌지를 볼 수 있는 최적의 위치에 있는 건 직원들입니다. 소비자라면 걱정하지 말라고 말씀드리겠습니다. 킬러 로봇은 나오지 않을 것이고, 모든 것이 시간이 조금 더 걸릴 겁니다. 투자자와 기업들이 여러분이 원하는 것을 만드는 데 돈을 쓰도록 하면 됩니다. 새로운 서비스가 여러분을 놀라게 할 거고, 삶의 질은 개선될 겁니다. 인터넷과 스마트폰이 지난 수십년간 그래왔던 것처럼 말입니다. 아마 5년 후에는 오늘날처럼 AI에 대해 많이 말하지 않을 겁니다. (그때는)AI가 컴퓨터 칩이나 블루투스 연결처럼 대부분 제품에 내장된 서비스에 하나가 될 것입니다. 개인적으로 이런 세계적 변화를 가져오는 발명을 목격해 기쁘고, 삶에 주는 영향을 겪어보길 고대하고 있습니다. “우리보다 더 똑똑한 기계 만들고 있다는 점 잊지 말고 경계해야”-‘튜링상’ 수상자 요수아 벤지오 교수 오늘날 AI가 안전한지는 어디에 초점을 보고 살펴봐야 할까요. 우선 오늘날 보는 AI가 몇 년 후에 보게 될 AI와 같지 않을 것이란 점을 이해해야 합니다. 지난 10년 동안 매우 분명한 방향성이 있었습니다. 일관된 텍스트를 생성할 수 없었던 AI가 이제는 200개 언어를 마스터하고 과학 분야에서 박사급 전문가만큼 뛰어난 성과를 내고 있습니다. 수학과 공학, 추론 작업에도 우수한 성과를 보여주며 많은 분야에서 인간 수준의 능력에 근접하거나 이를 초월했습니다. 이는 멈추지 않을 겁니다. 올해 발전된 모델은 인간의 심사숙고 과정을 학습해 추론 능력을 크게 개선했다는 것을 보여줍니다. 그래서 또 우리는 AI 안전성을 고려해야 합니다. 우리가 사는 세상의 역학은 (AI의 안전성을) 무시하도록 몰아가고 있습니다. 기업, 국가가 서로 치열하게 경쟁하며 위험을 보지 않는 것이죠. 위험을 관리하기 위해서는 두 가지 주요 영역에 개입해야 합니다. 하나는 정책, 하나는 과학 측면입니다. 정책 부분은 국가 차원에서 법률이나 국제 또는 사법적 개입을 통해 행동 규칙을 확립해야 합니다. 그러면서 AI가 사회에 보급되며 경제적으로 어떤 영향을 미칠지도 고려해야 합니다. 예를 들어 일자리 시장의 혼란이 가중될 수 있습니다. 점점 더 많은 화이트칼라 작업이 자동화로 이동하고 있다는 점이 증거입니다. 국가 안보 위험도 있습니다. 개인이든 기업이든 나쁜 세력들, 예컨대 테러리스트 그룹, 불량 국가 등이 최첨단 AI를 악용할 위험도 있습니다. 또 정책적 고민을 할 때 우리가 우리보다 더 똑똑한 기계를 구축하는 길을 가고 있다는 점을 잊지 말아야 합니다. 만약 이런 시스템이 의도치 않게 우리 시스템의 통제를 벗어나 탈출하려 하거나 또는 꺼지지 않으려 할 수도 있습니다. 비록 가설적인 상황이라 할지라도 이를 예상하고 대비해야 합니다. AI 사회 보급…일자리·안보 등 혼란 우려연구 통해 ‘통제 수단’ 개발해야하드웨어 선두주자 한국, 앞으로 중요성 커져과학적 측면에서의 문제는 시스템이 우리의 의도를 거슬러 행동하지 않도록 설계하는 방법을 아직 모른다는 겁니다. AI가 어떤 목표를 가지고 실현하는 방식이 인간에게 해롭지 않을지 확신할 수 없습니다. 이를 해결하기 위해 AI를 통제하고 검증할 수 있어야 합니다. 문제가 어떻게 발생할 수 있는지, 예방은 어떻게하는지, 연구를 통해 위험을 더 잘 평가하고 정량화해야 할 겁니다. 전세계 AI 안전성과 관련된 연구소들은 최근 위험 평가의 방법론과 기준을 점차 표준화하고 있습니다. 저는 주체성이란 것이 시스템에서 어떻게 형성될 수 있는지 이해하는 게 가장 중심적인 과제라 생각합니다. 아예 주체성이 없는 신뢰할 수 있는 AI 시스템을 구축하는 방법을 모색하는 것이 연구자로서 현재 가장 관심이 가는 사항 중 하나입니다. 이는 아직은 해결되지 않은 질문 중 하나입니다. 정책적으로 이런 문제를 학계와 산업계가 연구할 수 있도록 유도할 수도 있습니다. 예를 들어 AI개발자들에게 시스템이 안전하다고 여기는 이유와 근거를 의무적으로 제출하고 전문가들을 설득하도록 한다면 시스템을 보다 신뢰할 수 있을 겁니다. 안전성에 대한 더 많은 연구도 이뤄지겠죠. 한국은 AI 연구의 선두주자 중 하나입니다. 탁월한 연구 대학이 많고 실력 있는 많은 인재를 육성하고 있습니다. AI에 대한 인재풀도 강력합니다. 기계 학습 분야의 최고 학회들에 많은 논문을 발표하고 있고, 산업적 측면에서 보더라도 한국은 소프트웨어뿐만 아니라 하드웨어에서도 매우 강력한 입지를 유지하고 있습니다. 특히 한국이 고해상도 AI 칩 분야의 리더란 점은 굉장히 중요한 요소로 작용할 겁니다. 앞으로도 AI 진화에 대한 중요한 논의들이 이어질 겁니다. 인간이 미래의 위험을 감수하지 않고 새로운 기술의 혜택을 누릴 수 있는 현명한 개발 방식을 마련하도록 논의를 이어가길 바랍니다. “AI 오류 피해, 책임 소재 명확히 해야”-인공지능법률사무소 ‘인텔리콘’ 임영익 대표 -AI 활용도가 점점 더 높아지는 시대, 현재 AI는 공정하다고 보시나요. “AI는 인간을 배웁니다. 그런데 인간은 종교, 신념, 이념 등 생각의 프레임 또는 특정한 사고 체계를 가지고 있어 말이나 행동에서 편향적 행동이나 인지 편향을 보입니다. 결국 AI는 인간에게서 편향성도 배우기 마련입니다. AI의 편향을 막기 위한 다양한 연구가 현시대에 놓인 주요한 과제입니다.” -편향성을 막기 위해 어떤 방법이 사용되고 있나요. “현재는 AI의 편향을 사후적으로 제거하는 방법으로 3가지가 대표적입니다. 휴먼 피드백 강화학습은 학습된 모델이 내놓은 답변을 사람이 검토하고 피드백해 모델에 재학습(강화학습)해 편향을 줄이는 방법이고, 미세 조정은 이미 학습된 모델에 새로운 데이터를 추가로 학습시키는 방법인데 예를 들어 성별 균형이 맞춰진 데이터를 학습시켜 성별 편향을 줄이는 방법입니다. 마지막으로 출력 후처리 기법은 AI가 답변을 생성한 후 사람이 검토하고 수정하거나 AI 내부에 ‘이 답변이 공정한가’를 확인하고 점검하는 로직을 추가하는 방식입니다. 다만, 이런 방법도 완전하지 않습니다. 공정성을 판단하는 주체가 결국 인간이기 때문에 모든 사람을 만족하는 공정성이라는 것은 애초에 어려운 것이 될지 모릅니다. 그래도 인공지능의 공정성은 그 사회의 문화나 상황에 따라 변할 수 있는 ‘유동적 공정성’ 정도는 만족해야 합니다.” -편향된 AI는 사회적으로 악용될 여지가 있을까요. “가능성이 있습니다. 고도로 발전한 기술을 통해 사실을 교묘히 조작하고 가짜 뉴스를 대량으로 생산할 수 있습니다. 딥페이크 기술을 악용해 허위 정보를 유포하는 사례는 이미 현실로 드러난 바 있습니다. AI챗봇과 자동화된 댓글 시스템은 특정 이슈에 대한 여론을 조직적으로 조작하는 수단이 될 수도 있습니다. 정치적 편향성과 알고리즘 조작은 심각한 사회적 위험을 초래할 수 있습니다. 개발자가 의도적으로 편향된 데이터를 입력하면 특정 정치적 성향이나 이념을 강화하는 결과를 초래할 수 있고, 사용자들은 자신도 모르게 특정 관점에 영향을 받을 가능성이 높아집니다. 또 AI기술은 일부 국가나 정치인들이 대중을 감시하는 수단으로 악용될 수도 있고, 광범위한 개인정보 침해 문제도 내포하고 있습니다.” 공정한 AI 불가?…‘유동적 공정성’에 만족해야 할수도심각한 사회적 위험 초래 가능성 내포지속적이고 균형 있는 정책 보완 필요-AI가 인간의 일자리를 뺏어갈까요. “AI발전이 새로운 직업군을 만들어내고 양질의 일자리를 창출하는 데 기여할 것이란 점엔 이견이 없습니다. 하지만 현실적으로 AI가 만들어내는 일자리보다 사라지는 일자리가 더 많을 수 있습니다. 콜센터 상담원, 단순 사무직, 공장 근로자 같은 직업은 줄어들 가능성이 큽니다. 이런 문제를 해결하기 위해 몇가지 대응이 필요합니다. 첫째로 AI 관련 기술을 배우고 활용할 수 있도록 교육 기회를 확대하고 직업 재훈련 프로그램을 강화해야 합니다. 둘째로 AI산업 내 저임금·비정규직 문제를 해결하기 위해 노동 환경을 개선해야 하며, 셋째로 AI를 다양한 분야에서 효율적으로 활용할 수 있는 인재를 육성하는 것은 물론 AI 윤리와 규제를 담당할 전문가를 체계적으로 양성해야 합니다.” -AI산업 진흥과 규제를 위해 어떤 정책 및 제도적 지원이 필요할까요. “지난해 AI 기본법이 국회를 통과한 것은 국내 AI산업에 중요한 첫걸음입니다. 지속적이고 균형 있는 성장을 위해서는 다양한 분야에서 정책적 노력이 요구됩니다. 첫째로 AI윤리와 책임성을 강화해야 합니다. AI개발과 활용 과정에서 윤리적 기준을 명확히 하기 위해 가이드라인 수준이 아닌 더욱 구체적인 기준을 마련해야 할 필요가 있습니다. AI시스템의 오류 등으로 피해가 생겼을 때 개발자, 운영자, 사용자 간 책임 소재도 명확히 정의해야 합니다. 둘째로 AI 기술의 표준화와 안전성을 확보해야 합니다. 성능과 안전성을 체계적으로 평가할 수 있는 프로세스 구축과 국제적인 AI 규범에 맞춰 기술 표준을 정립하고 글로벌 협력과 공동 연구로 국제 경쟁력을 확보해야 합니다. 나아가 AI시스템의 오작동이나 예상치 못한 결과를 사전에 검증할 수 있는 독립적인 AI 안전 연구소에 많은 예산을 투입해야 할 것입니다. 세 번째로 AI 인력을 양성하고 산업 경쟁력을 강화해야 합니다. 초·중·고 교육과정에 AI 기초 교육을 포함하는 것과 함께 성인을 대상으로 한 재교육 프로그램을 마련해 미래 인재와 성인이 새로운 산업 환경에 적응할 수 있도록 해야 합니다. 창업지원, 연구개발 투자 확대, 세제 혜택 확대 등으로 AI 스타트업 성장도 적극적으로 촉진해야 합니다.”
  • “미래 그릴 주체는 AI 아닌 인간… ‘도구’로서 협업하고 공생해야” [비하人드 AI]

    “미래 그릴 주체는 AI 아닌 인간… ‘도구’로서 협업하고 공생해야” [비하人드 AI]

    이미 거스를 수 없는 흐름이 됐다. 인공지능(AI)은 우리 일상과 산업 전반에 깊숙이 스며들었다. 인간과 똑같이 사고하고 행동하는 인공일반지능(AGI) 시대도 멀지 않았다. 지나친 낙관론은 경계해야 하지만 그렇다고 거부감 속에 마냥 머물러 있을 수만도 없다. 이지혜 카카오엔터프라이즈 최고성장책임자(CGO·부사장)는 하루의 대부분을 AI와 보낸다. AI 스피커가 전하는 날씨 정보와 일정 확인으로 하루를 시작하는 이 부사장은 스마트워치 ‘핏빗’으로 스트레칭을 한다. ‘카카오T’의 AI 배차가 최적화한 경로를 따라 출근하고 이동 중에는 AI 오디오북 ‘윌라’를 들으며 잠시 숨을 고른다. 업무 시간에도 AI는 필수 도구다. 기획안을 준비할 때는 ‘그록3’나 ‘챗GPT’ 같은 거대언어모델(LLM) 서비스를 활용하고 프레젠테이션(PPT) 작성에는 AI 기반 솔루션 ‘감마 AI’의 도움을 받는다. 수차례 진행되는 회의에서는 음성문자변환(STT) 서비스 ‘다글로’를 이용해 회의록을 작성한다. 퇴근 후에는 AI 기반 혈당 관리 애플리케이션 ‘파스타’로 건강을 체크하고 AI 투자 서비스 ‘핀트’로 자산을 관리한다. 영어 공부는 AI 튜터 ‘말해보카’가 맡는다. 인간과 협업하는 존재챗GPT 등 활용해 업무 효율 높여과도한 의존 땐 사고력 저하 주의“국가 차원 윤리적 활용 고민해야”이 부사장은 AI 산업의 최전선에서 뛰고 있다. 카카오엔터프라이즈는 AI 필수 인프라인 그래픽처리장치서비스(GPUaaS)를 공급, AI 특화 클라우드인 카카오 클라우드를 운영한다. 네트워크 처리 속도를 높이고 안정성을 확보하는 것이 목표다. 이를 통해 게임, 금융, 연구개발 분야뿐 아니라 스타트업들이 AI 기술을 기반으로 성장할 수 있도록 지원한다. 이 부사장의 AI 활용이 조금 유별나 보이겠지만 조만간 많은 사람의 생활도 이처럼 변할 것이다. AI가 일상으로 파고들면서 ‘AI 시대를 어떻게 대비해야 하는가’라는 질문이 따라온다. 이 부사장은 AI를 올바르게 활용하는 것이 무엇보다 중요하다고 강조한다. AI가 인간을 완전히 대체하는 것이 아니라 인간의 능력을 향상시키고 협업할 수 있는 도구로 자리잡아야 한다는 것이다. 그는 “AI를 사용하는 사람들은 책임감을 갖고 신중하게 활용해야 한다”며 “국가 차원에서는 제도적 장치를 마련해 윤리적 문제와 범죄 활용 가능성을 줄이는 노력이 필요하다”고 말했다. 바둑 AI ‘알파고’와 대결했던 이세돌 전 프로바둑 기사는 최근 울산과학기술원(UNIST) 특강에서 “AI를 경쟁 대상으로만 보지 말고 함께 발전할 수 있는 기회로 받아들이는 게 중요하다”고 밝혔다. 김주호 한국과학기술원(KAIST) 전산학부 교수는 “AI와 수동 작업을 균형 있게 활용하는 것을 목표로 해야 한다”고 말했다. 계산기에 지나치게 의존하면 기본적인 계산 능력이 약화하는 것처럼 기초를 충분히 갖추지 못한 상태에서 AI에 과도하게 의존하면 사고력과 문제해결 능력이 저하될 수 있다는 지적이다. AI 기술은 시각장애인들에겐 떼어 놓을 수 없는 ‘동반자’다. 최근 만난 한국시각장애인연합회 한혜경(32)·손지민(42)·홍서준(42)씨는 일상 속 AI 활용 경험을 들려주며 더 나은 미래를 상상했다. 약자의 ‘눈’이 된 AI시각장애인도 말로 기차표 예매고기의 익힘 정도까지 확인 해줘하나의 도구로 일상 속 불편 해소코레일이 선보인 AI 챗봇은 시각·지체장애인인 철도회원이 코레일톡 앱에 접속하면 음성 상담 안내창이 띄워져 대화로 표를 예매할 수 있게 해 준다. 스마트폰 화면을 더듬어 표를 예약했던 시각장애인들에게는 새로운 세상이 열린 것이다. 한씨는 “이전에도 스마트폰 화면을 두드리면 텍스트를 말로 전해 주는 기능이 있긴 했지만 텍스트를 하나하나 듣고 화면을 계속 터치하면서 기차표를 예매해야 했다”며 “표 한 장 예매하는 데 엄청난 시간이 들어가 결국 포기하고 보이는 사람한테 개인정보를 다 알려 주면서 예매를 부탁하기도 했다”고 말했다. 한씨는 챗GPT 비전으로 고기 익힘 정도를 확인하고 퍼플렉시티로 검색을 대신한다. 홍씨는 “바닥에 떨어진 물건을 찾을 때 AI 카메라가 포착해 줘 큰 도움이 된다”고 말했다. 손씨는 방마다 AI 스피커를 두고 날씨, 타이머, 공기청정기 조작, 오디오북 감상 등에 활용한다. “거실 불 꺼 줘” 한마디로 조명을 끄는 편리함은 ‘혼자 할 수 있다는 자신감’을 심어 준다. 일본은 AI를 통한 사회문제 해결을 국가 전략 어젠다로 삼았다. 특히 저출생 고령화 문제, 재난 대응 시스템 등을 주요 과제를 삼고 투자를 집중한다는 방침이다. 인간이 AI와 상호작용하며 긍정적인 변화를 만든 사례도 있다. 미국 항공우주국(NASA)의 ‘AI 포 마스’(AI For Mars) 프로젝트는 시민들이 자발적으로 참여해 화성 탐사 로봇이 위험한 지형을 학습할 수 있도록 돕는다. 참여자들은 화성 지형 사진을 분석해 바위와 모래를 구분하는 데이터를 입력했다. 1만 7050명의 자원봉사자가 참여해 64만개 이상의 데이터를 구축했다. 미국 워싱턴대의 ‘사이드워크’ 프로젝트도 주목할 만하다. 장애인을 위한 도로 정보를 수집·업데이트하는 이 프로젝트는 대중의 참여를 기반으로 한다. 원래는 교통약자를 배려한 도로 설계였지만 공사나 훼손으로 인해 보행이 어려운 곳이 생길 수 있다. 참여자들은 지도를 보며 문제가 있는 도로를 표시해 개선을 돕는다. AI가 해결하기 어려운 문제를 인간의 집단지성이 보완하는 방식이다. AI 시대의 미래는 결국 인간이 그려 나간다. 이상욱 한양대 교수는 “사회가 기술과 어떻게 상호작용하느냐에 따라 기술의 발전 방향이 달라진다”며 “AI의 핵심은 단순한 도입이 아니라 얼마나 효과적이고 윤리적으로 활용하는지에 있다”고 강조했다. ■기획취재팀 팀장 이창구 장진복 김중래 명종원 이성진 기자
  • AI와 시민의 유쾌한 만남…내달 8~9일 DDP에서 ‘서울 AI페스타’ 열린다

    AI와 시민의 유쾌한 만남…내달 8~9일 DDP에서 ‘서울 AI페스타’ 열린다

    서울시는 다음 달 8~9일 동대문디자인플라자(DDP) 아트홀 1관에서 ‘서울 AI페스타 2025’를 연다고 25일 밝혔다. AI 대중화를 목표로 하는 이번 행사는 오는 9월 코엑스에서 열릴 예정인 ‘스마트라이프위크 2025’의 사전 행사로 마련됐다. 시 관계자는 “어렵고 복잡한 신기술 위주의 기업 전시 행사와 다르게 시민들이 재밌게 체험하고 즐길 수 있는 다양한 콘텐츠로 꾸며진 시민 참여형 축제”라고 설명했다. 실제 AI페스타는 ‘AI가 내게 말을 걸었다’라는 주제로 총 6개의 공간을 운영한다. 서울시 AI 정책과 성과를 소개하는 ‘AI 서울 인사이드’, 생성형 AI의 답변 오류를 유쾌하게 알아보는 ‘엉뚱 AI 전시관’, AI 기술을 직접 체험하는 ‘AI 펀스팟’, AI 관련 대결을 펼치는 ‘AI 플렉스팟’, 전문가 강연과 청년 토론이 열리는 ‘AI 오디세이’, 생성형 AI로 나의 그림을 그리는 ‘AI 아트워크존’ 등으로 구성됐다. 오는 8일 AI오디세이에서는 오세훈 서울시장과 청년들이 AI 정책을 논의하는 시간을 가진다. 9일에는 카를로 라티 MIT 연구소장과 정송 카이스트 AI대학원 원장 등 국내외 AI 전문가들이 패널 토론을 진행할 예정이다. 바둑 AI 알파고와 대결했던 이세돌 교수와 뇌과학자 장동선 교수 등의 토크 콘서트도 열린다. 김만기 서울디지털재단 이사장은 “올해 서울디지털재단을 ‘서울AI재단’으로 전면 개편해 AI 활용의 중추 역할을 강화하고, 혁신적인 AI 기술 발전을 선도하고자 한다”고 말했다. 강옥현 시 디지털도시국장은 “AI페스타는 시민들이 재미있고 다채로운 프로그램을 통해 AI의 가능성과 한계를 직접 경험하며 생활 속에서 AI를 친숙하게 접하고 활용할 수 있는 계기가 될 것”이라고 강조했다.
  • [공직자의 창] 팀코리아, 글로벌 AI 3대 강국으로

    [공직자의 창] 팀코리아, 글로벌 AI 3대 강국으로

    올림픽에서 메달을 차지하는 선수는 단 세 명이다. 세계 최고 3인은 자국 국기를 휘날리며 국위를 선양한다. 메달보다 막대한 국익을 두고 뜨거운 경쟁이 펼쳐지는 곳이 있다. 바로 글로벌 인공지능(AI) 패권 경쟁이다. 1950년대 AI 연구가 시작된 이래 알파고 등장까지 60년이 걸렸으나 이후 챗GPT 등장까지는 단 6년이 소요됐다. 수년 내 인간을 뛰어넘는 범용인공지능(AGI) 개발이 전망되고 있으며 지난해엔 AI 분야 학자들이 노벨상을 휩쓰는 등 발전이 가속화하고 있다. 발전하는 창작·소통·추론 능력으로 무장한 AI는 새로운 경제·안보 패권 수단이 되고 있다. 미국은 700조원이 넘는 ‘스타게이트 프로젝트’를 발표했고 프랑스와 유럽연합(EU)도 수백조원의 투자계획을 밝히는 등 앞다퉈 AI 패권 경쟁에 총력을 기울이고 있다. 우리나라는 1994년 전국에 정보고속도로를 뚫어 정보화 시대에 대비하기 위한 초고속정보통신망을 구축하는 계획을 발표했다. 당시 수십조원에 이르는 사업 규모에 무모하다는 비판도 있었지만 넓게 닦은 정보화고속도로에서 다양한 콘텐츠라는 자동차가 마음껏 달리고 곳곳에 세워진 휴게소(플랫폼)는 각종 정보·경제활동의 집결지가 됐다. 그 결과 정보통신 강국이 됐고 지금까지도 정보통신기술·산업은 우리의 성장동력이다. 30년이 지난 지금 글로벌 AI 패권 경쟁 속에 대한민국은 미래를 좌우할 담대한 결단에 다시 직면해 있다. 최근 딥시크 열풍은 혁신적 알고리즘 역량과 AI 컴퓨팅 인프라가 있으면 빅테크가 아니어도 AI 패권 판도를 바꿀 수 있음을 보여 줬다. 생성형 AI 논문 수 세계 3위 등 잠재력을 갖춘 우리에게도 충분한 기회가 있다는 의미다. 정부는 지난 20일 제3차 국가AI위원회에서 절대적으로 부족한 AI 컴퓨팅 인프라 확충을 중심으로 세계 최고 거대언어모델(LLM) 개발 지원과 인재 확보, 시장 창출 전략을 담은 ‘AI 컴퓨팅 인프라 확충을 통한 국가 AI 역량 강화 방안’을 발표했다. 정부는 우선 AI 컴퓨팅 인프라 확충 마스터플랜을 이행한다. 시급한 AI 컴퓨팅 수요에 대응하기 위해 민간·공공이 보유한 그래픽처리장비(GPU) 자원을 본격 활용하고, 내년 상반기까지 첨단 GPU 1만 8000장분을 확보해 AI 컴퓨팅 인프라를 확충할 것이다. 이를 통해 ‘국가 AI 컴퓨팅센터’ 구축을 앞당기고 국산 AI 반도체도 적극 활용하며 독자적 AI 생태계를 구축할 것이다. 또한 세계 최고 수준에 버금가는 자체 파운데이션 모델 개발을 위한 ‘AI 국가대표 프로젝트’를 추진한다. 해외 유수의 AI 기업들과 당당히 경쟁할 정예팀을 선발하고 LLM 개발에 필요한 데이터, 컴퓨팅 자원과 인재 유치 비용 등을 전폭 지원할 것이다. 최고 수준 AI 인재도 양성한다. 국내외 AI 인재가 겨루는 ‘글로벌 AI 챌린지’를 열고 입상자에게는 파격 혜택을 제공할 계획이다. 세계 수준의 AI 연구를 위해 지난해 미 뉴욕에 문을 연 ‘글로벌 AI 프런티어랩’을 유럽, 중동으로 확대하고 기업과 대학 협력, 집중 멘토링을 통해 현장형 AI 인재도 확보한다. 법률·의료·교육 등 다양한 분야에 우리 AI 모델을 접목하는 분야별 선도 프로젝트로 초기 시장을 창출하고 국가 AI 전환을 가속화할 것이다. 2주 전 프랑스에서 열린 AI 정상회의에서 미국과 영국은 선언문 서명에 불참하고 EU도 규제 최소화를 언급하는 등 각국은 자국의 이익을 위해 기민하게 AI 정책을 결정하고 있다. AI 강국을 향한 우리의 꿈은 정부, 기업, 국민이 힘을 모을 때 실현할 수 있다. 유상임 과학기술정보통신부 장관
  • “실화야?” 안정환도 충격…기름값이 물값보다 싸다는 ‘이곳’ 어디?

    “실화야?” 안정환도 충격…기름값이 물값보다 싸다는 ‘이곳’ 어디?

    축구선수 출신 방송인 안정환이 사우디아라비아의 상상 초월 주유비에 충격받은 사연이 공개된다. 오는 6일 방송되는 채널A ‘선 넘은 패밀리’(이하 ‘선넘패’) 69회에서는 방송 최초로 ‘사우디아라비아 패밀리’ 배은비와 압둘이 등장해 사막 한가운데 지어진 도시인 리야드에서의 일상을 공개한다. 이날 방송에서 배은비는 “2015년 사우디 개방 프로젝트인 ‘비전 2030’에 참여하게 돼 사우디아라비아에 왔다가 압둘과 자연스럽게 만나게 되며 사우디에 정착하게 됐다”고 밝힌다. 이어 그는 “오늘 사우디의 매력을 제대로 보여주겠다”며 전통과 현대를 오가는 투어에 돌입한다. 먼저 배은비는 “사우디는 도로가 넓고 시원하게 쭉쭉 뻗어 있어 운전할 맛이 난다”며 드라이브에 나섰다. 그는 “사우디는 전 세계에서 유일하게 여성 운전을 금지했던 나라였으나 ‘비전 2030’의 하나로 여성 인권 신장이 대두되면서 2018년부터 여성 운전이 허용됐다”고 설명한다. 그러던 중 배은비는 “차에 기름이 거의 다 떨어졌다”며 첫 번째 매력 장소인 주유소에 들른다. 이어 승용차를 가득 채운 기름값의 충격적인 실체에 스튜디오에서는 “실화냐”라는 반응이 터져 나온다. 직후 리터당 가격을 확인한 안정환은 “말 그대로 기름값이 물값보다 저렴한 것”이라며 놀라움을 금치 못한다. 배은비는 이후 사우디 왕조의 발상지인 ‘앗 타리프’를 구경한 뒤, 전통 시장 ‘수크 알 잘’에 들러 머리에 쓰는 전통 의상 ‘셰마그’를 착용해본다. 뒤이어 터키 출신 알파고는 중동의 남성 전통 복장인 ‘토브’와 여성 전통복인 ‘아바야’를 소개하면서, “각각 흰색과 검은색으로 이루어져 있고, 몸매를 보이면 안 되는 게 특징”이라고 설명해 눈길을 끌었다.
  • “인류가 맞닥뜨린 과제”···노벨상 휩쓴 AI 연구

    “인류가 맞닥뜨린 과제”···노벨상 휩쓴 AI 연구

    올해 노벨상 과학상 3개 부문에서 생리의학상을 제외하고는 모두 인공지능(AI) 연구자들이 수상자에 포함됐다. AI로 단백질 구조를 설계하고 예측한 데이비드 베이커(62) 워싱턴대 교수, 데미스 허사비스 구글 딥마인드 최고경영자(CEO), 연구원 존 점퍼(39)가 노벨화학상 수상자로 호명됐다. 물리학상은 인공신경망을 연구해 AI 머신러닝(기계학습)의 기초를 확립한 존 홉필드(91) 미국 프린스턴대 명예교수와 ‘구글 AI 총책’으로 잘 알려진 제프리 힌턴(76) 캐나다 토론토대 교수에게 돌아갔다. 대체로 순수 과학 분야에서 수상자를 배출했던 노벨상이 올해는 다른 선택을 하면서 현대 과학의 전면에 AI가 등장했다는 평가도 잇따랐다. 10일(현지시간) 스웨덴 스톡홀름 콘서트홀에서 열린 노벨상 시상식 후 마련된 연회에서는 급속도로 발전하는 AI에 대한 위험을 경고하는 목소리가 터져 나왔다. 대표적인 ‘AI 종말론자’인 힌턴 교수는 이 자리에서 인간의 지능을 뛰어넘는 ‘슈퍼인텔리전스’(초지능·super-intelligence)의 등장을 우려하면서 “우리에게는 실존적 위협이 있다”고 운을 뗐다. “우리가 이를 통제할 수 있을지는 알 수 없다”면서 “단기적 이익에 동기 부여된 기업이 이런 기술을 만든다면 우리의 안전이 최우선 순위가 되지 않을 것이라는 증거가 있다”고 지적했다. 이어 “이 새로운 존재가 통제권을 장악하려는 것을 막기 위한 연구가 시급하다”면서 “이건 더 이상 공상과학 소설이 아니다”라고 경고했다. 힌턴 교수가 전망하는 가까운 미래는 감시, 통제가 일상화한 디스토피아와는 또 다른 양상이다. 그는 “가까운 미래에는 AI가 끔찍한 신종 바이러스와 누구를 죽이고 불구로 만들지 결정하는 상살무기를 만드는 데 사용될 수 있다”면서 “이러한 모든 단기적 위협에 대해 국제사회와 각국 정부가 큰 관심을 갖고 긴급히 움직여야 한다”고 강조했다. 노벨경제학상 수상자인 다론 아제모을루 미국 매사추세츠공대(MIT) 교수도 이 자리에서 위협받는 민주주의, 기후 변화 등과 AI를 인류가 당면한 과제로 꼽으면서 “이제 AI는 모든 곳에서 모든 것을 (혼란에) 빠뜨릴 것을 예고하고 있다”고 경고했다. 그는 “우리는 더 나은 제도를 만들고 더 많은 좋은 일자리를 창출하는 기술의 방향을 선택할 수 있다”면서 “학자들이 AI 시대에 공동 번영을 보장하는 질문을 던지고 새로운 영역을 탐구하며 노력해야 한다”고 짚었다. 반면 노벨화학상을 받은 베이커 교수는 “오늘 밤 미래에 대한 희망에 초점을 맞추고자 한다”면서 공동 수상자인 허사비스 CEO와 연구원 점퍼를 거론하며 “(우리 연구가) 생물학 연구에 혁신적인 영향을 미치고 있으며 의심할 여지 없이 신약 개발에 기여할 것으로 믿는다”고 밝혔다. 구글 딥마인드는 바둑 AI ‘알파고’로 우리에게 익숙하지만 2억 단백질 구조를 분석하는 AI ‘알파폴드’ 모델을 내놓으면서 인류가 직면한 질병, 환경 문제 등에 대응하는 새로운 길을 열었다. 그는 AI 개발의 긍정적인 측면을 제시하며 “세상을 더 나은 곳으로 만들 것이라고 확신한다”고 덧붙였다.
  • 올해 노벨상 시상식 화두도 AI…“초지능 실존 위협” “더 나은 미래”

    올해 노벨상 시상식 화두도 AI…“초지능 실존 위협” “더 나은 미래”

    올해 노벨상 과학상 3개 부문에서 생리의학상을 제외하고는 모두 인공지능(AI) 연구자들이 수상자에 포함됐다. AI로 단백질 구조를 설계하고 예측한 데이비드 베이커(62) 워싱턴대 교수, 데미스 허사비스 구글 딥마인드 최고경영자(CEO), 연구원 존 점퍼(39)가 노벨화학상 수상자로 호명됐다. 물리학상은 인공신경망을 연구해 AI 머신러닝(기계학습)의 기초를 확립한 존 홉필드(91) 미국 프린스턴대 명예교수와 ‘구글 AI 총책’으로 잘 알려진 제프리 힌턴(76) 캐나다 토론토대 교수에게 돌아갔다. 대체로 순수 과학 분야에서 수상자를 배출했던 노벨상이 올해는 다른 선택을 하면서 현대 과학의 전면에 AI가 등장했다는 평가도 잇따랐다. 10일(현지시간) 스웨덴 스톡홀름 콘서트홀에서 열린 노벨상 시상식 후 마련된 연회에서는 급속도로 발전하는 AI에 대한 위험을 경고하는 목소리가 터져 나왔다. 대표적인 ‘AI 종말론자’인 힌턴 교수는 이 자리에서 인간의 지능을 뛰어넘는 ‘슈퍼인텔리전스’(초지능·super-intelligence)의 등장을 우려하면서 “우리에게는 실존적 위협이 있다”고 운을 뗐다. “우리가 이를 통제할 수 있을지는 알 수 없다”면서 “단기적 이익에 동기 부여된 기업이 이런 기술을 만든다면 우리의 안전이 최우선 순위가 되지 않을 것이라는 증거가 있다”고 지적했다. 이어 “이 새로운 존재가 통제권을 장악하려는 것을 막기 위한 연구가 시급하다”면서 “이건 더 이상 공상과학 소설이 아니다”라고 경고했다. 힌턴 교수가 전망하는 가까운 미래는 감시, 통제가 일상화한 디스토피아와는 또 다른 양상이다. 그는 “가까운 미래에는 AI가 끔찍한 신종 바이러스와 누구를 죽이고 불구로 만들지 결정하는 상살무기를 만드는 데 사용될 수 있다”면서 “이러한 모든 단기적 위협에 대해 국제사회와 각국 정부가 큰 관심을 갖고 긴급히 움직여야 한다”고 강조했다. 노벨경제학상 수상자인 다론 아제모을루 미국 매사추세츠공대(MIT) 교수도 이 자리에서 위협받는 민주주의, 기후 변화 등과 AI를 인류가 당면한 과제로 꼽으면서 “이제 AI는 모든 곳에서 모든 것을 (혼란에) 빠뜨릴 것을 예고하고 있다”고 경고했다. 그는 “우리는 더 나은 제도를 만들고 더 많은 좋은 일자리를 창출하는 기술의 방향을 선택할 수 있다”면서 “학자들이 AI 시대에 공동 번영을 보장하는 질문을 던지고 새로운 영역을 탐구하며 노력해야 한다”고 짚었다. 반면 노벨화학상을 받은 베이커 교수는 “오늘 밤 미래에 대한 희망에 초점을 맞추고자 한다”면서 공동 수상자인 허사비스 CEO와 연구원 점퍼를 거론하며 “(우리 연구가) 생물학 연구에 혁신적인 영향을 미치고 있으며 의심할 여지 없이 신약 개발에 기여할 것으로 믿는다”고 밝혔다. 구글 딥마인드는 바둑 AI ‘알파고’로 우리에게 익숙하지만 2억 단백질 구조를 분석하는 AI ‘알파폴드’ 모델을 내놓으면서 인류가 직면한 질병, 환경 문제 등에 대응하는 새로운 길을 열었다. 그는 AI 개발의 긍정적인 측면을 제시하며 “세상을 더 나은 곳으로 만들 것이라고 확신한다”고 덧붙였다.
  • [나태주의 풀꽃 편지] 사반세기를 돌아보며

    [나태주의 풀꽃 편지] 사반세기를 돌아보며

    한 해가 가고 다시 한 해가 온다. 그런데 2025년이란 숫자 앞에 마음이 멈칫 가서 머문다. 2025년. 2000년을 지나서 25년이다. 25년이면 ‘사반세기’다. 1세기의 4분의1이 된다는 말이다. 아, 내가 그 2000년을 지나 사반세기를 지구상에서 버텼단 말인가. 옷깃이 저절로 여며지는 일이며 조용한 감동이 아닐 수 없다. 지난날이긴 하지만 2000년이 됐을 때 우리는 얼마나 흥분해 떠들며 온갖 요란을 떨었던가. 내가 사는 충남에서도 충남지사가 주관하는 새천년 행사가 있었다. 2000년 1월 1일 새벽. 그날 나는 시인으로 불려 나가 새천년 축시를 낭독하기도 했다. 그로부터 25년 세월이다. 사반세기 동안 우리에게는 어떠한 중요한 일들이 일어났던가? 나는 인간의 삶에 있어서 정치나 경제와 같이 확실하고 가시적인 분야보다는 사회현상이나 문화, 정신 현상이 더 중요하다고 생각한다. 내가 관심 가졌던 커다란 사건 몇 가지만 이야기해 보면 이러하다. 첫째는 2004년 황우석 박사의 일이다. 서울대 의대 수의과 교수였던 그는 세계 최초로 스너피란 이름의 개를 복제하는 데 성공했고 과학잡지 ‘사이언스’에 사람의 체세포를 복제한 배아줄기세포 배양에 성공했다는 기사가 실렸다. 그러나 그 뒤 그것이 진실이 아니라는 보도가 나왔다. 저간의 사정은 어찌됐든 국가적으로 매우 안타까운 사건이었다. 우리나라의 진로와 틀을 바꿀 수 있는 기회였는데 아깝게 놓쳤다는 감회를 남겼다. 둘째는 2014년, 세월호 사건이다. 이것은 단순한 선박 전복 사건이 아니고 우리나라 사람들의 삶과 정신상태 전체를 전복시킨 일이기에 너무나도 어이없고 억울한 사건이었다. 무엇보다도 정부나 어른들이 잘못 대응한 사건이고 대한민국 전체의 안전불감증이 불러온 참사였다. 대한민국 어른으로서 사표를 내고 싶은 심정이었다. 셋째는 2016년, 이세돌 바둑 9단과 인공지능(AI) 알파고의 바둑 대결을 들고 싶다. 이것은 일견 조용하고 조그만 사건 같지만 실은 대단한 사건이라고 여겨진다. 다섯 판의 바둑 대결 가운데 4대1로 이세돌 9단이 지기는 했지만 이야말로 인간 승리였다고 생각한다. 대국을 마친 뒤 이세돌이 남긴 말은 우리에게 희망을 주었다. “이건 나의 한계지 인간의 한계가 아니다.” 명언 가운데 명언이다. 이세돌은 AI를 이긴 유일한 인간이 됐다. 넷째는 2020년 코로나19를 말하고 싶다. 3년 4개월 동안 전 인류의 생명줄을 잡고 뒤흔든 코로나19 팬데믹은 우리의 삶의 질과 방식을 깡그리 바꾸었다. 그야말로 패러다임이 바뀐 것이다. 피폐한 삶을 더욱 피폐하게 했고 우울하고 피곤한 인류를 더욱 우울하고 피곤하게 만들었다. 마지막으로는 2023년 서이초등학교 여교사 자진 사건이다. 사건의 전말이야 어떻든 이것은 나 하나만 생각하고 너를 배려해 주지 않은 극단적인 이기심에서 일어난 사건이다. 내가 잘 살기 위해서는 너의 도움이 필수적이다. 나아가 너의 행복이나 안전이 나의 것일 수 있다는 걸 알았어야 했다. 오죽하면 공자님도 ‘기소불욕 물시어인’(己所不欲 勿施於人), 즉 ‘내가 하기 싫은 일은 남에게도 시키지 마라’고까지 말했겠는가! 이 또한 우리 한국인의 미성숙성을 말해 주는 안타까운 사건이었다. 이제 우리는 새천년의 사반세기를 지나고 있다. 미래학자들은 핵 위험, 기후변화, AI가 인류 멸망의 원인이 될 수 있다고 경고했다. 위태로운 지구 위 인류의 한 사람으로서 우리가 어떻게 앞으로 살아가야 할지 참으로 심각하게 생각해 보아야 할 계기라고 여겨진다. 급하게 됐다. 문제는 나의 생존, 인류의 생존이다. 나태주 시인
  • 뉘앙스까지 회의 통역… AI비서, 휴가 자동신청

    뉘앙스까지 회의 통역… AI비서, 휴가 자동신청

    “500대 기업 70%가 AI로 생산성 향상”… 빅테크 ‘AI 비서’ 경쟁 “새로운 소비 트렌드에 관한 기획안 초안을 작성해 줘.” 회사원 A씨는 마이크로소프트(MS)의 인공지능(AI) 비서인 ‘코파일럿’에게 이러한 지시를 내렸다. 트렌드 관련 기존 문서 파일(MS 워드)들을 참조하도록 했고, 결과물을 본 뒤엔 좀더 ‘전문가다운 톤’으로 조정하라고 했다. 기획안에 첨부할 표는 MS 엑셀을 활용하도록 했다. 숫자로만 된 데이터는 코파일럿을 통해 여러 버전의 그래픽으로 바뀌었고, A씨는 이 중 가장 마음에 드는 걸 기획안에 추가했다. A씨는 MS 팀스를 통해 9개국 팀원들과의 화상 회의에서 이 기획안을 논의했다. 언어 장벽은 코파일럿의 실시간 음성 번역 기능으로 사라진 지 오래다. 팀원 각자의 말투와 톤도 맞춰 준다. 코파일럿은 실시간으로 참고할 만한 사이트와 파일 등을 탐색해 팀원 채팅창에 올려 준다. 회의가 끝난 후엔 새로운 프로젝트의 진행 상황과 각자 해야 할 일도 모두 공유된다. A씨는 코파일럿에게 다음주 월요일 연차 입력을 지시한 뒤 하루 업무를 마쳤다. MS가 19일(현지시간) 미국 시카고에서 연례 콘퍼런스인 ‘MS 이그나이트 2024’를 열고 ‘365 코파일럿’의 신규 AI 비서(에이전트) 기능을 중점적으로 소개했다. A씨 사례는 코파일럿이 실현할 ‘오피스 대혁명’을 가상으로 그려 본 것이다. 첨단 기능을 갖춘 AI 비서의 출현으로 영화 ‘아이언맨’의 만능 AI 비서 ‘자비스’를 누구나 가질 수 있는 시대가 다가왔다. 바둑 AI 프로그램인 ‘알파고’가 AI의 존재와 의미를 널리 알렸다면 AI 비서는 ‘AI의 일상화’를 가리킨다고 볼 수 있다. 사티아 나델라 MS 최고경영자(CEO)는 “앞으로는 모든 직원이 자신을 알고 자신의 업무 수행 방식을 이해하는 코파일럿을 갖게 될 것”이라면서 “AI 에이전트 시대를 열겠다”고 밝혔다. MS는 신규 업데이트를 통해 다양한 AI 에이전트 기능을 추가했는데 대표적인 게 ‘통역 에이전트’다. 화상 회의 중 이용자의 목소리를 실시간으로 학습해 9개 언어로 통역하는 이 기능은 사용자 어조에 맞춘 ‘시뮬레이션 기능’을 제공하며 뉘앙스까지 반영한다. 특정 사이트나 파일, 폴더가 있는 곳을 쉽게 찾아 주는 ‘셰어포인트 에이전트’는 대략적인 지시로도 작성자가 사용한 관련 자료를 모두 찾아 준다. 직원들은 ‘직원 셀프서비스 에이전트’를 통해 휴가 신청이나 급여, 복지 정보 확인 요청 등을 쉽게 할 수 있다. ‘프로젝트 매니저 에이전트’를 통해 작업 할당과 진행 상황 추적 등 프로젝트 전반을 관리할 수 있다. MS는 이미 포천 500대 기업의 약 70%가 MS 365 코파일럿을 통해 생산성을 높이고 있다고 밝혔다. 실제 IDC 2024 AI 보고서에 따르면 전 세계 조직 75%가 AI 도입을 통해 평균 1달러당 3.7달러의 수익을 창출하고 있다. 일부 상위 리더들은 최대 10달러의 수익을 실현한 것으로 조사됐다. MS뿐 아니라 구글, 오픈AI 등 빅테크들이 AI 에이전트 개발과 고도화에 박차를 가하는 이유다. 구글은 내년에 자비스로 불리는 AI 비서를 선보인다. 지난 5월 구글의 연례 개발자회의에서 처음 공개된 이 서비스는 휴대전화에 AI 음성 비서 형태로 탑재돼 사용자가 카메라로 비추는 환경을 인식하면서 사용자와 실시간 대화를 주고받는 모습을 보여 줬다. 오픈AI도 내년 1월을 목표로 새로운 AI 비서 ‘오퍼레이터’ 출시를 준비하고 있다. 오퍼레이터는 사용자를 대신해 컴퓨터 응용프로그램을 제어하거나 이메일 작성과 전송, 여행 계획 및 관리 등의 작업을 수행하는 서비스다. A씨 대신 식당 여러 곳에 전화를 걸어 최적의 장소를 찾아 예약해 준다는 얘기다. 국내에서도 AI 비서 경쟁이 불붙고 있다. 지난해 전화 통화에 AI 기능을 덧붙인 ‘에이닷’을 선보인 SK텔레콤은 더 진화된 버전인 ‘에스터’를 이달 초 공개했다. 에스터는 사용자가 ‘주말 파티를 위해 저녁 준비를 도와 달라’고 하면 대화를 통해 메뉴를 제시하고, 그에 맞는 요리법을 전달한 뒤 식품 구매 서비스까지 도와준다. 카카오는 사용자 개인과 그룹 대화를 자동 분석한 뒤 필요한 정보를 제공하는 ‘카나나’ 앱을, 네이버는 자연스러운 대화가 가능한 음성 서비스 AI ‘스피치X’를 준비 중이다.
  • “인간보다 더 인간처럼… 진솔한 감정 느끼는 AI 나올 것” [월요인터뷰]

    “인간보다 더 인간처럼… 진솔한 감정 느끼는 AI 나올 것” [월요인터뷰]

    AI가 만드는 새로운 사후세계고인의 아바타 복원은 시간문제AI가 표정·목소리·제스처 등 학습영화 ‘원더랜드’처럼 생생함 관건AI는 사랑이란 감정을 몰라?기술적으론 감정 이해·표현 가능일각선 자의식 가질 수 있다고 봐‘학습한 사랑’ 오히려 진솔할 수도갈수록 정교해지는 딥페이크AI는 양날의 칼 가진 핵무기 같아활용자 윤리 교육·부분 규제 필요규제·자율성 사이 균형 맞춰가야로봇이 일자리를 위협할까소송 대응 등 법조 분야 적용 가능AI 판사, 편향성까지 학습할 우려‘환각’ 현상 있어 맹신하는 건 위험 “인간의 사랑이 진짜고, 인공지능(AI)의 (학습을 통해 얻은) 사랑은 가짜라고만 할 수 있을까요. AI가 자의식을 가질 수 있다는 데까지 생각을 열어 둬야 합니다.” 2024년을 규정하는 열쇠말로 일상으로 훅 들어온 AI, 특히 사람처럼 보고 듣고 말하는 오픈AI의 새 모델 GPT-4o를 빼놓을 수 없다. 대중문화에서도 AI 바람은 거셌다. 지난 6월 개봉한 영화 ‘원더랜드’(김태용 감독, 탕웨이·수지 주연)는 AI로 복원된 망자와 소통이 가능한 미래를 그렸다. AI 머신러닝·뇌과학·휴머노이드 로봇 분야 석학인 장병탁(61) 서울대 AI 연구원장(컴퓨터공학부 교수)은 “영화에 나온 ‘원더랜드 서비스’는 머지않아 구현될 가능성이 큰 AI 기술”이라고 설명했다. 그는 “영화 ‘그녀’(HER·스파이크 존즈 감독)에서처럼 AI가 ‘학습한 사랑’이 인간이 느끼는 감정보다 더 진솔할 수도 있고, AI가 노벨상을 받는 날도 올 것”이라고 했다. 지난 8일 서울 관악구 서울대 AI연구원에서 장 원장을 만나 AI와 인류의 미래를 들어봤다. 다음은 일문일답. -영화 ‘원더랜드’처럼 AI로 망자와 소통이 가능한 날이 올까. “‘원더랜드 서비스’는 AI가 고인을 ‘회생’(복원)시킨 것인데 이미 오래전부터 연구됐다. 살아 있을 때 목소리나 표정, 제스처를 데이터화해 학습시켜 아바타의 구현이 가능하다. 돌아가신 할머니·할아버지와 대화를 주고받을 수 있다. 실제 고인의 목소리와 표정을 얼마나 사실적으로 구현할지가 관건인데 시간문제다.” -AI 하면 영화 ‘그녀’를 떠올린다. AI가 감정을 느끼고 사랑을 할 수 있을까. “철학적인 질문이다. 기술적으로 AI가 감정을 가진 것처럼 보이게 만드는 건 가능하다. AI가 진짜 나를 좋아한다는 착각에 빠지게 할 수 있다. 진짜 사랑을 느끼는 건 아닐지 모르지만, 인간은 거기에 현혹될 수 있다.” -사랑만큼은 인간의 고유 감정이 아닐까. “어느 철학과 교수의 얘기를 듣고 충격을 받은 적이 있다. 알파고는 사람이 두는 수를 계속 흉내 내면서 더 좋은 수를 뒀다. 챗GPT도 학습을 통해 인간을 흉내 낸다. 이런 AI의 학습을 본 한 철학과 교수가 ‘인간의 사랑도 그런 거 아닐까’라고 했다. AI가 상대방이 좋아하는 말을 계속해 주고 애착을 흉내 내는 것이 인간이 연애 감정을 알아가는 것과 크게 다르지 않다는 의미다. 인간의 사랑이 진짜고, AI의 사랑은 가짜라고만 하긴 어렵다. AI도 기술적으로 사랑의 감정을 이해하고 표현할 수 있다. 예컨대 직장 상사가 듣기 좋아하는 말만 골라 하면서 비위를 맞추는 건 AI도 할 수 있다. 카메라와 글로 학습한 데이터를 바탕으로 눈치를 보는 것이다. 궁극적인 질문은 ‘AI가 자의식을 가질 수 있느냐’인데 요즘 철학자들은 AI가 자의식을 가질 뿐 아니라 인간보다 더 잘할 수도 있다는 관점까지 보이며 생각을 열어 두고 있다.” -올해 노벨상의 화두도 AI였다. AI가 노벨상을 받는 날도 올까. “AI 국제학회에서 노벨 의학상을 받을 AI를 만들자는 얘기가 있었다. 의학 분야에서 새롭게 발견된 지식과 누적된 데이터가 가장 많아서다. 다만 AI가 노벨상을 받기 위한 가장 큰 벽은 아직 사람으로 인정하지 않는다는 점이다. 법적, 제도적으로 혁명적 전환이 있어야 가능하다.” -예술의 영역은 어떤가. 천재들의 예술성도 학습 가능한 영역일까. “가능하다. 하지만 예술의 정의와 평가 기준이 달라질 수밖에 없다. 카메라가 등장하면서 극사실주의 작품의 가치가 떨어졌다. AI는 소설을 잘 쓴다. 사람보다 더 창의적인 것처럼 보이기도 한다. 앞으로 예술성의 경계가 모호해질 것 같다.” -AI의 발전에 두려움을 느끼기도 한다. 가장 먼저 일자리가 줄어들 텐데. “사람이 하기 싫은 일에서 해방되는 건 장점이지만 일자리를 빼앗기는 건 위협이다. AI가 인간 실수를 보완해 주는 장점이 있으니 적절히 활용해야 한다. 무슨 일을 시켜도 잘하는 똘똘한 사원이 입사했다고 보면 된다. 언젠간 부서장 자리를 넘볼 수도 있지만 아직은 신입사원 단계여서 경륜에 차이가 있다.” -딥페이크는 대표적인 부작용으로 꼽힌다. 해결책이 있을까. “제일 큰 이슈다. AI 기술 자체는 가치중립적이며 양날의 칼이다. 핵과 비슷하다. 원전은 중요한 에너지원이지만 핵무기는 인류를 파멸시킬 수 있다. 그래서 AI 활용자에 대한 윤리 교육이 필요하다. 현재 AI 기본법 논의가 이뤄지고 있다. 위험하거나 악용 소지가 있는 부분에 대한 규제가 필요하다. AI도 규제와 시스템의 테두리에 들어와야 한다.” -아이유 버전 비비의 ‘밤양갱’처럼 음성 저작권 문제도 손봐야 할 텐데. “AI 기술 공개를 제재할 구체적인 법은 없다. 논의해야 할 부분이다. 너무 일찍 규제하면 기술 발전이 저해되고, 규제를 안 하면 프라이버시가 침해될 수 있다. 시간이 지나면 규제와 자율성 사이 균형을 맞춰 가는 지점이 생길 것이다.” -극단적이지만 영화 ‘터미네이터’처럼 AI가 인류를 위협하는 날이 올 수도 있을까. “AI의 발전은 로봇이 자율성을 얻는 과정이다. 자율성이 커질수록 통제에서 멀어진다. 악한 사람이 작심하고 AI를 조종하면 인류를 위협할 가능성은 얼마든지 있다. 자율성 부여와 통제가 최대 딜레마다.” -원장님의 관심사는 어느 쪽인가. “머신러닝을 30년 넘게 연구했다. 지금은 AI가 몸을 가진 휴머노이드 로봇을 연구하고 있다. 챗GPT는 몸이 없다. 반대로 기계공학자들이 연구하는 로봇에는 정신(AI)이 빠져 있다. 이 두 가지가 결합한 것이 ‘임보디드(체화된) AI’다. 은퇴하고 나서 집안일을 도울 AI 로봇을 만드는 게 꿈이다.” -자율주행차처럼 AI도 발전 단계가 있을 텐데. “6단계가 있다. 1단계는 사람이 지식을 넣어 주는 단계, 2단계는 스스로 지식을 만드는 머신러닝·딥러닝 단계다. 3단계는 스스로 데이터를 습득해 학습하는 단계다. 생성형 AI라 불리는 챗GPT가 여기에 해당한다. 4단계는 현재 연구 중이다. 인간이 옳고 그름에 대한 정답을 정해 주지 않아도 답을 찾는다. 5단계는 인간 수준의 AI가 구현된 단계로 인공일반지능(AGI)이라고 부른다. 6단계는 AI가 인간을 초월해 슈퍼지능을 가진 단계다.” -챗GPT의 한계는. “글로만 학습한다는 점이다. 다 이해하고 아는 것처럼 보이지만 모르면서 흉내 낸다. 인간은 다양한 감각 정보로 ‘컵’의 형상과 용도를 이해한다. 글로만 학습한 챗GPT는 사람처럼 이해하진 못한다. AI의 학습과 이해에는 일종의 환각 현상이 있다. 그래서 챗GPT를 무조건 믿는 건 위험하다. 사람처럼 의도를 갖고 잘못된 정보를 만드는 건 아니지만 정보가 허위인지 아닌지를 모른다.” -AI가 발전하면 의사 수를 늘릴 필요가 없는 것 아니냐는 얘기도 나온다. “시간이 필요하다. 의료 분야보다 법조 분야에 적용될 여지가 크다. 법률사무소에서 문서로 이뤄지는 사건 조사와 소송 대응은 AI가 더 잘한다. 100% 마음에 들지 않아도 시간을 크게 단축할 수 있다. 직원 5명이 사건 하나를 준비하는 데 한 달이 걸렸다면, AI를 쓰면 한 달에 사건 10개를 할 수 있다.” -AI가 판사를 대체할 수도 있을까. “AI가 내린 판결을 받아들일 수 있을까. AI가 하면 중립적이니까 객관적 판결을 할 거라 보는 의견이 있다. 하지만 AI가 정치적으로 편향된 판사의 데이터로 학습하면 그 성향을 닮아 더 위험하다. 기계 자체는 공정하지만 편향성을 주는 방법은 여러 가지다. 특정 정당 사람이 모여 있는 단체 메신저 방에서 오가는 글을 AI가 학습하면 무슨 말인지도 모르고 흉내 낼 수 있어 조심해야 한다.” -트럼프 2기의 AI 정책 방향은. “미국의 AI 연구는 외국인력 의존도가 높다. 트럼프 당선인은 외국인 유입에 반대하고 실리콘밸리 정보기술(IT) 업체는 유능한 유학생이 미국을 떠나길 거부한다. 다만 트럼프는 동전의 양면 같은 사람이다. 규제 완화에 열려 있어서 기회가 올 수 있다. 특히 테슬라와 구글을 위해 강력한 지원에 나설 수도 있다.” -AI와 로봇과 인간의 공존은 가능한가. “AI 연구가 인간을 이해하는 데 도움이 된다. 사람은 정말 똑똑하고 훌륭하다. 다만 인간 삶이 기계화·자동화되면서 인간다움을 잃어 가는 것도 사실이다. 그래서 강연에서 매번 인성과 사회성 교육이 중요하다고 강조한다. 아무리 AI가 발전해도 인간이 할 일은 계속 있을 거라는 데 동의하지만 앞으로 더 적극적으로 찾아내지 않으면 도태될 수밖에 없다.” ●장병탁 서울대 AI연구원장 1963년 경북 문경 출생. 서울대 컴퓨터공학과를 졸업하고 동 대학원에서 석사, 독일 본 대학에서 박사학위를 받았다. 2015년 세계 최고 권위의 AI 분야 국제학술대회(AAAI)에서 ‘상상력 기계’를 발표해 이목을 끌었다. 머신러닝 분야 연구 성과를 인정받아 2017년 정보통신 부문 홍조근정훈장을 받았다.
  • 통제할 수 없는 힘은 불러내지 마라

    통제할 수 없는 힘은 불러내지 마라

    올해 노벨 과학상의 화두는 ‘인공지능’ (AI)이다. 현재의 AI 시대를 있게 만든 두 사람이 물리학상을 받고 ‘알파고의 아버지’ 데미스 허사비스 구글 딥마인드 최고경영자(CEO)가 화학상을 수상했다. 그런데 놀라운 점은 ‘AI의 아버지’로 받들어지는 물리학상 수상자들의 입에서 AI의 위험성을 경고하는 목소리가 나왔다는 것이다. ●AI는 인공지능 아닌 ‘외계 지능’ AI가 가진 잠재적 위협에 관해 우려하는 이들이 점점 늘고 있다. ‘사피엔스’의 저자로 유명한 이스라엘의 석학 유발 하라리(위 사진)도 그중 한 명이다. 새 책 ‘넥서스’는 그가 AI의 세계적인 대두를 경계하기 위해 낸 책이다. 결론은 간명하다. “통제할 수 없는 힘(AI)을 불러내지 말라”는 거다. 이런 결론으로 가는 서사는 전작들과 마찬가지로 방대하기 이를 데 없다. 벽돌책이지만 술술 읽힌다. AI는 ‘Artificial Intelligence’(인공지능)의 약자로 인식된다. 저자의 생각은 다르다. ‘Alien Intelligence’(외계 지능)라는 것이다. ‘외계’ 정보 네트워크가 불량해지면 기존의 인간 갈등을 증폭시켜 AI 군비 경쟁과 디지털 냉전으로 몰아갈 수 있다. AI 혁명에 긍정적인 이들은 신문과 라디오가 민주주의를 이끌고 산업혁명이 삶을 개선한 것처럼 AI도 그러하리라 믿는다. 하지만 다른 게 있다. 이제껏 인간이 만든 발명품들은 인간에게 힘을 실어 줬다. 새로운 도구가 아무리 강력해도 그것을 어디에 쓸지 결정하는 건 항상 인간의 몫이었다. 칼과 폭탄은 누구를 죽일지 스스로 결정하지 않는다. 반면 AI는 스스로 정보를 처리할 수 있으며 인간을 대신해 결정을 내릴 수 있다. “AI는 도구가 아니라 행위자”라는 말이다. 정보는 접착제와 같아서 네트워크를 하나로 결속시킨다. 문제는 정보의 오염이다. 대부분은 정보 네트워크의 작동 방식에 대해 오해하고 있다. 로널드 레이건 전 미국 대통령은 1989년 베를린 장벽이 무너지기 몇 달 전 “전체주의적 통제라는 골리앗은 마이크로칩이라는 다윗에 의해 빠르게 무너질 것”이라고 했고, 버락 오바마도 “정보는 산소 같은 것”이라며 “정보가 자유롭게 흐를수록 사회가 튼튼해진다”고 했다. 저자는 이를 “정보에 대한 순진한 관점”이라고 꼬집었다. 정보에 대한 순진한 관점은 전체 그림의 일부만 본다. 저자는 가장 흔한 정보 오염의 예로 페이스북을 든다. 2016~2017년 사이 미얀마에서는 불교를 믿는 다수의 버마족과 이슬람을 믿는 소수 로힝야족 사이에 오염된 정보가 생성됐다. 이는 걷잡을 수 없는 폭력을 불렀다. 그 숙주가 페이스북이었다. ●새로운 신의 자리를 AI가 누릴 수도 이쯤에서 의문이 생긴다. 당신과 나는 정보 오염 과정에 무관한 사람이며 당연히 분열과 상잔에서 자유롭다고 믿어도 될까. 옮긴이의 말에서는 회의적인 분위기가 읽힌다. “어쩌면 인간은 새로운 신의 자리를 정보(AI)에 내주어야 할지도 모른다.”
  • “AI 잠재력, 수십억 명 삶 개선”

    “AI 잠재력, 수십억 명 삶 개선”

    “저는 수십억 명의 사람들의 삶을 개선할 수 있는 미증유(아직까지 한 번도 있어 본 적이 없는 것)의 잠재력 때문에 인공지능(AI)을 발전시키는 데 제 경력을 바쳐왔습니다.” 지난 9일(현지시간) 노벨위원회로부터 노벨 화학상 수상자로 선정된 데미스 허사비스(48) 구글 딥마인드 최고경영자(CEO)는 자사 홈페이지를 통해 “노벨상 수상은 평생의 영광”이라며 이렇게 밝혔다. 함께 노벨 화학상을 수상한 존 점퍼(39) 딥마인드 수석연구원 역시 “(이번 수상은) AI가 궁극적으로 질병을 이해하고 치료법을 개발하는 데 도움이 될 거라는 중요한 증거”라고 말했다. AI가 노벨상을 휩쓸면서 두 명의 수상자가 나온 딥마인드에 대한 대중의 관심도 뜨겁다. 딥마인드는 허사비스 CEO와 무스타파 술레이만 마이크로소프트(MS) AI CEO, 셰인 레그 딥마인드 수석 AGI(인공일반지능) 과학자가 2010년 영국에 설립한 회사다. 2014년 딥마인드의 잠재성을 알아본 구글에 인수되며 구글의 자회사가 됐다. 당시 인수 금액은 정확히 공개되지 않았으나 약 5억 달러(약 6700억원)로 알려졌다. 허사비스 CEO는 인수 이후에도 딥마인드를 독립적으로 운영해 왔다. 딥마인드가 처음 개발한 AI 모델은 ‘스페이스 인베이더’처럼 1970~1980년대의 단순한 컴퓨터 게임을 스스로 학습하는 모델이었으나, 구글 인수 2년 후인 2016년엔 이세돌 9단과 대국을 벌인 알파고를 선보일만큼 상당한 기술적 진보를 이뤄냈다. 이번에 허사비스 CEO와 점퍼 수석연구원에게 노벨화학상을 거머쥐게 한 건 단백질 구조를 파악하는 AI 모델 ‘알파폴드’로 신약 개발과 질병 치료 연구에 혁신적인 변화를 가져온 것으로 평가받는다. 구글은 챗GPT 등장 이후 생성형 AI에서 오픈AI에 뒤처진다는 평가를 받자 지난해 4월 구글리서치 산하 AI 부서였던 ‘구글 브레인’과 딥마인드를 전격 통합했으며, 지난 4월엔 구글리서치의 AI 관련 부문을 딥마인드 산하로 편입시켰다. 이로써 허사비스 CEO는 구글의 AI 사업을 대표하는 인사가 됐으며, 현재는 챗GPT에 대항하는 구글 ‘제미나이’ 개발을 총괄하고 있다. 함께 딥마인드를 창립했던 술레이만 CEO가 올해 초 MS AI 부문 수장이 되면서 빅테크간 AI 전쟁 최전선에서 경쟁 관계에 놓인 것도 흥미로운 대목이다. 딥마인드는 제미나이의 멀티모달 AI를 강화하는 데 주력하고 있으며 장기적으로는 인간의 지능 수준에 가까운 범용적인 AI인 AGI를 개발하기 위한 연구를 지속하고 있다. 딥마인드의 비공개 프로젝트인 ‘프로젝트 아스트라’는 AGI 개발을 위한 것으로 허사비스 CEO는 지난 5월 열린 구글의 연례개발자회의에서 AGI의 기능 중 일부를 연말 구글 제품을 통해 공개될 예정이라고 밝혔다.
  • 로제타폴드, 세 종류 AI로 정확도 높여… 알파폴드, 구글 검색하듯 신속 분석

    로제타폴드, 세 종류 AI로 정확도 높여… 알파폴드, 구글 검색하듯 신속 분석

    올해 노벨 화학상을 받은 데이비드 베이커 교수와 데미스 허사비스 딥마인드 대표, 존 점퍼 수석연구원의 공통점은 단백질 구조 예측을 위한 인공지능(AI)을 개발했다는 점이다. 베이커 교수는 ‘로제타폴드’, 딥마인드는 ‘알파폴드’라는 AI를 개발해 공개했는데, 이 둘은 같은 듯 다르다. 빠르게 수분에서 수시간 내에 단백질 구조를 예측한다는 점에서는 공통점이 있지만 알고리즘 구현 방식에서 차이를 보인다. 베이커 교수가 개발한 ‘로제타폴드’는 비밀스러운 단백질의 구조를 정확하게 해독하겠다는 의미로 기원전 196년 고대 이집트에서 만들어진 비석인 로제타스톤에서 이름을 따왔다. 로제타폴드는 세 종류의 AI로 구성된다. 알려지지 않은 단백질이 주어지면 단백질 데이터베이스에서 비슷한 아미노산 서열을 빠르게 찾는 AI와 단백질 내부에서 아미노산이 연결되는 형태를 예측하는 AI, 이를 토대로 어떤 입체 구조를 가졌는지 예측하는 AI로 이뤄져 있다. 이런 세 가지 과정을 반복하면서 각 AI가 제시한 결과를 개선해 정확도를 높이는 형식이다. 우리에겐 ‘알파고의 아버지’로 잘 알려진 허사비스가 이끄는 딥마인드팀이 개발한 알파폴드는 로제타폴드에 앞서 개발된 인류 최초의 단백질 구조 예측 인공지능이다. 이미 알려진 단백질 구조와 아미노산 배열을 학습함으로써 새로운 아미노산 배열만으로 구조를 순식간에 예측할 수 있게 된다. 마치 구글에서 검색하듯 원하는 단백질 구조를 수분~수시간 내에 빠르게 알아낼 수 있게 해 준다. 지난 5월에 공개된 알파폴드3는 기존 알파폴드가 단백질 간 상호작용만 예측했던 것을 넘어 단백질과 리간드, 핵산, 항체 등 상호작용을 복합적으로 파악할 수 있게 해 준다. 이 때문에 허사비스는 알파폴드를 내놓으면서 ‘디지털 생물학’의 시대가 열렸다고 자평하기도 했다. 석차옥 서울대 화학부 교수는 “20세기 초 양자역학의 발견으로 물리학 분야에서 혁신이 일어난 것처럼 2000년대 초 AI의 등장이 앞으로 과학 분야 전반에 엄청난 파급효과를 가져올 것으로 보인다”며 “올해 노벨 물리학상과 화학상 수상은 AI가 기존의 패러다임을 바꾸는 과학의 새로운 도구가 될 것이란 걸 미리 보여 준 것일 뿐”이라고 말했다.
  • 화학상까지… 노벨상 휩쓴 AI

    화학상까지… 노벨상 휩쓴 AI

    2024년 노벨 화학상은 인공지능(AI)을 이용해 단백질 구조를 설계하고 예측할 수 있는 방법을 찾은 연구자들에게 돌아갔다. 스웨덴 왕립과학아카데미 노벨위원회는 9일(현지시간) 올해 노벨 화학상 수상자로 데이비드 베이커(왼쪽·62) 미국 워싱턴대 교수, 데미스 허사비스(가운데·48) 영국 구글 딥마인드 대표와 존 점퍼(오른쪽·39) 딥마인드 수석연구원을 선정했다고 밝혔다. 노벨위원회는 “베이커 교수는 단백질 설계를 위한 컴퓨터 계산법을 개발하고, 허사비스와 점퍼는 ‘알파폴드’라는 인공지능 단백질 구조 예측 프로그램을 개발한 공로가 인정됐다”고 수상 업적을 평가했다. 이번 노벨 화학상 수상자 중 베이커 교수는 상금 1100만 크로나(약 14억 3033만원) 중 절반을, 허사비스와 점퍼는 각각 4분의1씩 받게 된다. 올해는 물리학상에 이어 화학상도 인공지능 분야에서 수상자를 배출해 그야말로 ‘인공지능의 시대’가 열렸음을 상징적으로 보여 준다는 평가가 나온다. 지난 8일 인공지능 시대를 연 것으로 평가받는 존 홉필드(91) 미국 프린스턴대 명예 교수, 제프리 힌턴(77) 캐나다 토론토대 교수가 노벨 물리학상 수상자로 발표됐을 때 이례적이라는 목소리가 나왔지만, 화학상도 인공지능 연구자가 수상하면서 보수적이라는 노벨위원회에서도 인공지능이 대세임을 인정했다는 평가다. 지구상에 존재하는 생물은 약 150만종에 이르며, 각각 수천에서 수만 종의 단백질을 가지고 있기 때문에 현재 지구상에 존재하는 단백질 종류는 1조개 가까이 된다. 단백질은 스무 종의 아미노산이 연결돼 있고, 4차 구조까지 있기 때문에 단백질 구조를 이해하고 관찰한다는 것은 극히 어려워 ‘신의 영역’이라는 농담까지 있다. 불과 몇 년 전까지만 해도 단백질 입체 구조를 알아내기 위해서는 엑스선 결정학이나 극저온 전자현미경 등을 이용했는데, 계산이 복잡해 짧게는 수개월에서 길게는 수년이 걸렸다. 이 때문에 지금까지 알려진 단백질 중 사람이 구조를 밝혀 낸 것은 17% 정도에 불과하다. 그런데 이런 판도를 바꾼 것이 인공지능이다. 포문을 연 것은 2016년 3월 이세돌 9단과 대국에서 압승한 바둑 AI ‘알파고’를 만들어 우리에게도 잘 알려진 허사비스가 이끄는 구글 딥마인드다. 딥마인드는 그동안 개발해 온 게임용 인공지능을 넘어 과학 연구에 활용할 수 있는 인공지능을 만들겠다는 생각으로 단백질 구조를 분석하는 인공지능 ‘알파폴드1’을 2018년 세상에 내놨다. 2020년 딥마인드팀은 알파폴드2 모델을 새로 내놨다. 업그레이드된 알파폴드의 도움으로 연구자들은 약 2억개의 단백질 구조를 예측하게 됐다. 현재는 190개국 200만 명 이상이 사용하고 있다. 이전까지만 해도 과학계에서 인공지능은 소위 ‘아이들 장난감’같이 취급해 왔는데, 알파폴드의 등장으로 단백질 예측 연구 분위기가 달라지고 인공지능에 대한 인식까지 바뀌게 된 것이다. 이번에 화학상을 받은 허사비스와 점퍼는 지난해에 ‘예비 노벨상’이라고 불리는 래스커상, ‘실리콘밸리의 노벨상’이라고 불리는 브레이크스루상 수상자로 선정된 바 있어 노벨상 수상 가능성을 높였다. 이번 노벨 화학상의 상금 배분 비율을 보면 베이커 교수의 업적을 더 높이 평가하고 있다. 베이커 교수는 알파폴드 등장에 앞서 단백질 구조 연구에 있어서는 세계적인 석학이다. 베이커 교수는 2020년에 열린 ‘단백질 구조 예측 학술대회’(CASP14)에서 구글 딥마인드에 이어 2위를 차지했다. 인공지능인 알파폴드가 압도적인 성적으로 1위를 차지하기는 했지만, 인공지능이 아닌 인간 중에서는 베이커 교수가 1위를 차지한 것이다. 베이커 교수는 단백질 예측뿐 아니라 물리화학적 방법으로 완전히 새로운 방식의 단백질을 설계하는 데도 ‘지존’의 위치에 있다. 이 때문에 허사비스와 점퍼보다 앞서 2020년에 브레이크스루상 생명과학상 수상자로 선정됐다. 베이커 교수는 한국과도 인연이 있다. 백민경 서울대 생명과학부 교수가 베이커 교수의 수제자로, 베이커 교수팀이 2021년 로제타폴드라는 단백질 예측 인공지능을 개발할 때 참여했다. 알파폴드가 속도를 앞세웠다면 베이커 교수팀의 로제타폴드는 정확도를 앞세운다. 이 때문에 과학 저널 ‘사이언스’에서 ‘2021년 가장 주목한 연구’로 로제타폴드 개발이 꼽히기도 했다. 한편 화학상을 끝으로 올해 노벨 과학상 수상자 7명이 모두 공개됐다. 이번 수상자의 국적을 보면 미국 4명, 영국 2명, 캐나다 1명으로 올해도 미국이 사실상 주도했다.
  • ‘알파고’의 아버지, 데미스 허사비스 노벨화학상 수상

    ‘알파고’의 아버지, 데미스 허사비스 노벨화학상 수상

    2024년 노벨 화학상은 단백질 구조를 설계하고 예측할 수 있는 방법을 연구한 과학자들에게 돌아갔다. 스웨덴 왕립과학아카데미 노벨 위원회는 9일(현지시간) 올해 노벨 화학상 수상자로 데이빗 베이커(62) 미국 워싱턴대 교수, 데미스 허사비스(48) 영국 구글 딥마인드 대표와 존 점퍼 딥마인드(39) 박사를 선정했다고 밝혔다. 노벨 위원회는 “베이커 교수는 단백질 설계를 위한 컴퓨터 계산법을 개발한 공로가 인정됐으며, 하사비스와 점퍼는 ‘알파폴드’라는 인공지능 단백질 구조 예측 프로그램을 개발한 공로가 인정됐다”고 수상 업적을 평가했다. 올해는 물리학상에 이어 화학상도 인공지능 분야에서 수상자를 배출해 ‘인공지능의 시대’가 열렸음을 상징적으로 보여준다는 평가다. 이번 노벨 화학상 수상자 중 베이커 교수는 1100만 스웨덴크로나(14억 3033만원) 중 절반을, 하사비스와 점퍼가 각각 4분의1씩을 받게 된다. 화학상을 끝으로 노벨 과학상 수상자는 7명이 모두 공개됐다. 이번 노벨과학상 수상자의 국적을 보면 미국 4명, 영국 2명, 캐나다 1명으로 미국이 사실상 싹쓸이했다. 노벨 과학상 수상자 발표가 종료되고 10일 노벨 문학상, 11일 노벨 평화상, 14일은 알프레드 노벨을 기념하는 스웨덴 국립은행 경제학상(노벨 경제학상) 수상자 발표만 남았다.
  • 이세돌·알파고 대국장에서…尹 “2027년까지 AI 강국 도약”

    이세돌·알파고 대국장에서…尹 “2027년까지 AI 강국 도약”

    윤석열 대통령은 26일 “대한민국을 오는 2027년까지 인공지능(AI) 세계 3대 강국으로 도약시킬 것”이라고 밝혔다. 윤 대통령은 이날 서울 종로구 포시즌스 호텔에서 ‘인공지능 대전환, 도약하는 대한민국’을 주제로 한 국가인공지능위원회 출범식 및 제1차 회의를 주재하며 “AI 세계 3대 강국이라는 비전을 이루기 위한 국가 총력전을 선포한다”고 밝혔다. 포시즌스 호텔은 지난 2016년 3월 이세돌 9단과 인공지능 스타트업 ‘딥마인드’가 개발한 바둑 AI ‘알파고’가 대국을 벌여 국내를 비롯한 전 세계에 ‘알파고 쇼크’를 안긴 장소다. 윤 대통령은 “AI가 국가 역량과 경제성장을 좌우하고 경제, 안보의 핵심이 되는 시대로 전환되는 과정”이라며 “세계 주요 국가들이 디지털 패권 경쟁에서 승리하기 위한 AI 기술 및 주도권 선점에 사활을 걸고 있다”고 설명했다. 대통령 직속 국가AI위원회의 위원장을 맡은 윤 대통령은 “우리나라의 명운이 걸린 AI 전환을 국가인공지능위원회가 선두에서 이끌며 견인차 역할을 할 것”이라며 “국가 AI컴퓨팅 센터를 민·관 합작투자로 구축하고, 산업과 사회 전반에 AI 전환을 촉진해 민간의 인공지능 분야 투자 확대를 견인하겠다”고 밝혔다. 윤 대통령은 “자유민주주의를 위협하는 가짜뉴스와 딥페이크 기술을 악용한 인권침해 등 디지털 격차에 따른 여러 부작용이 등장하고 있다”고 지적했다. 그러면서 이를 해결하기 위한 2022년 ‘뉴욕 구상’과 지난 5월 AI 서울 정상회의에서의 ‘서울 선언’ 등으로 디지털 규범 정립에 앞장서왔다고 소개했다. 대통령 직속 국가AI위원회는 AI 관련 연구개발(R&D)과 투자, 전문인력 양성, 규제 개선 등 국가 AI 정책 전반을 진두지휘한다. 엄재호 태제대 총장이 부위원장을 맡으며 곽노정 SK하이닉스 대표이사, 전경훈 삼성전자 디자이스경험(DX) 부문 최고기술책임자(CTO), 김영섭 KT 대표, 김승환 아모레퍼시픽 대표, 정신아 카카오 대표, 류석영 카이스트 전산학부 교수 등 민간기업 및 학계 전문가 30명 및 장관급 정부위원 10명 등이 참여한다.
  • 란커배 우승 신진서 9단, “사상 최초로 연간 최다상금기록 15억원 돌파하겠다”

    란커배 우승 신진서 9단, “사상 최초로 연간 최다상금기록 15억원 돌파하겠다”

    2020년 1월부터 57개월 연속 국내 랭킹 1위를 지키고 있는 신진서(24) 9단은 자신이 세운 올해 최다상금기록을 넘어 사상 최초로 연간 최다상금 15억원을 돌파하겠다는 의지를 보였다. 신 9단은 10일 성동구 마장로 한국기원에서 열린 제2회 란커배 우승 기념 기자회견에서 “어릴 때는 상금은 보지 않고 오로지 대국만 봤는데 20대가 되고 나서는 상금도 이따금 검색해본다”며 멋쩍게 웃은 뒤 “상금은 결국 따라오는 것이다. 상금이 다른 스포츠와 비교했을 때 부족한 건 사실이지만 그래도 많은 상금을 받을 수 있다면 좋다고 생각한다”며 기록 경신에 대한 강한 의욕을 내비쳤다. 현재 13억4069만8200원을 벌어들인 신진서는 남은 대회 결과에 따라 지난해 자신이 세운 연간 최다상금 기록(14억7961만7514원)은 물론이고 사상 최초의 연간 15억원 상금기록에도 도전한다. 현재 삼성화재배, 명인전, KB국민은행 바둑리그, 중국 갑조리그 등이 남아있어 지금의 페이스만 유지한다면 충분히 경신이 가능하다. 명인전의 경우 우승상금이 7000만원이며 국제대회인 삼성화재배 우승상금은 3억원 등이다. 앞으로 1억3900만원을 넘은 상금을 받으면 최다상금기록을 경신하고 만일 1억6000만원이상의 상금을 받으면 사상 최초로 상금 15억원을 돌파하게 된다. 원래 란커배 우승 이후 바로 기자회견이 바로 열려야했지만 일정이 빡빡해 이날 열린 기자회견에서 신 9단은 여전히 우승에 목마르다는 점을 강조했다. 그는 “올해 남은 대회 가운데에서는 그래도 (세계대회인) 삼성화재배가 가장 중요하지 않을까 싶다. 한 번 우승하긴 했지만 운이 좀처럼 따라주지 않는다는 생각이 드는데 그래도 일류 기사한테는 운보다 실력이 더 중요하다고 생각한다. 이번에는 좋은 성적을 거두고 싶다”고 말했다. 신 9단은 28회 LG배 우승과 농심신라면배에서 사상 초유의 ‘끝내기 6연승’을 기록하는 등 쾌조의 스타트를 끊었다. 하지만 이어진 29회 LG배 본선 16강에서 탈락했고 또 다른 세계대회인 춘란배에서도 고배를 마셨다. 그는 “2016년부터 2~3년간 슬럼프를 겪은 적이 있다. 그때는 나이도 어린데다 생각도 부족했기에 너무 힘든 시기였다”며 “예전의 많은 실패를 통해 지금은 나도 많이 성장했다고 생각한다. 그래서인지 최근의 슬럼프는 비교적 쉽게 극복했다고 생각한다”고 덧붙였다. 신 9단은 “예전에는 연습 바둑만 져도 며칠 동안 기분이 안 좋았다. 지금은 조금 성숙해졌다고 믿고 싶지만 세계대회에서 지면 최소한 1주일은 아픈 것 같고 결승에서 지면 다른 결승에서 이길 때까지 아픔이 있는 것 같다”고 말해 강한 승부욕을 드러냈다. 일본의 이치리키 료 9단이 일본 선수로는 19년만에 응씨배에 우승한 것과 관련, 신 9단은 “이치리키 선수가 응씨배에서 우승했는데 시간 벌점까지 받으면서 승리를 만들어낸 게 상당히 멋있다고 생각했다”며 “이 기회에 일본에서 세계대회를 개최하고 ‘이치리키 키즈’가 생긴다면 재미있을 것 같다. 한중일대만이 같이 발전하면 더 재미있어질 것이다”라고 말했다. 그는 인공지능(AI) 바둑 프로그램 ‘알파고’에 대해 “당시 알파고의 실력을 정확히 알 수 없기에 승부 예측이 의미 없긴 하지만 만약 둔다면 5번기에서 과감하게 3승에 도전하겠다”라고 덧붙였다. 2016년 3월 구글이 개발한 알파고는 당시 세계 최강자인 이세돌 9단을 4승 1패로 꺾어 전 세계를 깜짝 놀라게 했다.
  • “오픈AI로 서울의 AI 생태계 성장 돕고 싶어”

    “오픈AI로 서울의 AI 생태계 성장 돕고 싶어”

    “‘오픈AI’는 서울의 인공지능(AI) 개발자와 스타트업이 AI 애플리케이션(앱)을 효율적으로 구축할 수 있도록 돕고 서울 AI 생태계의 성장을 지원하고 싶습니다.” 챗GPT 개발사인 미국 오픈AI의 제이슨 권 최고전략책임자(CSO)가 13일 서울 서초구의 AI 분야 기술창업 육성 전문기관 ‘서울 AI 허브’에서 ‘AI의 미래를 설계해 나가는 개발자 역량 강화’를 주제로 강연했다. 권 CSO의 이날 강연은 서울시가 AI 스타트업 개발자와 시민 등이 AI 미래 비전을 공유하고, 개발자들 간의 소통을 지원하기 위해 마련한 행사 ‘네트워킹 데이’의 일환으로 진행됐다. 권 CSO는 AI의 미래에 대한 오픈AI의 비전, 오픈AI와 개발자·스타트업 커뮤니티 간 협업 방식에 대해 소개했다. 그는 “지난 수년간 전 세계적으로 AI의 주목할 만한 발전과 함께 AI 앱 수요도 크게 확대되고 있다. 서울의 AI 개발자뿐 아니라 스타트업과의 협업을 위해 의미 있는 기회를 지속해 만들겠다”고 밝혔다. 서울 AI 허브와 오픈AI, 김앤장 법률사무소, 한국형사·법무정책연구원이 공동 주관한 이날 행사에는 권 CSO 외에도 카카오엔터프라이즈의 창업자이자 김앤장 법률사무소 AI&IT시스템센터장인 백상엽 대표가 ‘생성형 AI의 활용 방식과 걸림돌’을 주제로, 박찬진 서울 AI 허브 센터장은 ‘AI 혁신의 여정 : 알파고, GPT, 그 너머’를 주제로 각각 강연했다. 이해우 서울시 경제실장은 “서울의 경쟁력 있는 AI 스타트업 개발자들이 글로벌 기업과 협력하고, 소통할 수 있는 기회를 제공하기 위해 이 행사를 마련했다”고 밝혔다.
  • “생성형 AI시대, 그 중심엔 사람과 돈… 한국엔 고급 인재가 없다”

    “생성형 AI시대, 그 중심엔 사람과 돈… 한국엔 고급 인재가 없다”

    앞으로 20년 모든 일상에 AI 침투기술 트렌드 신속 대응 능력 필요도전적 연구·투자 외국보다 저조기술 벤처 자본 과감히 투자해야 “컴퓨터, 반도체, 인터넷, 스마트폰을 거쳐 요즘은 바야흐로 인공지능(AI) 시대입니다. AI 다음은 무엇이 올 것 같냐는 질문을 자주 받는데 AI 시대는 이제 막 시작했습니다. 앞으로 최소 20년 동안은 AI가 기술 트렌드의 핵심에 있을 것이라 확신합니다.” 차상균 서울대 데이터사이언스대학원 특임교수는 11일 서울 중구 롯데호텔에서 열린 서울신문 광화문라운지 강연에서 “앞으로 20년 동안은 AI가 우리 일상의 모든 부분에 침투해 들어오는 시기가 될 것”이라고 밝혔다. 사실 2016년 이세돌 9단과 바둑 AI 알파고의 대국 때만 해도 AI 시대가 오려면 아직 멀었다는 예측들이 지배적이었다. 그렇지만 자고 일어나면 변한다고 해도 과언이 아닐 정도로 AI 기술이 빠르게 발전하고 있다. 특히 안 써 본 사람은 있지만 한 번 써 본 사람은 계속 쓸 수밖에 없다는 생성형 AI 챗GPT는 2022년 11월 등장 후 AI 업계의 판도를 바꿨다. 그런가 하면 과거 게임을 하는 사람들 사이에서만 알려졌던 그래픽처리장치(GPU) 생산기업 엔비디아는 생성형 AI의 최대 수혜주로 초고속 성장을 하고 있다. 엔비디아는 AI 훈련과 추론에 필수품인 GPU 기반 AI 칩 부분에서는 독보적인 입지를 구축해 품귀현상을 빚고 있을 정도다. 서울대 데이터사이언스대학원 초대 원장을 역임한 차 특임교수는 이날 ‘생성형 AI의 새로운 세상과 인컴번트 딜레마’(The New World of Gen AI and Incumbent’s Dilemma)라는 주제로 열강을 펼쳤다. 인컴번트는 경영학적 관점에서 ‘시장을 장악하고 있는 플레이어’들을 의미한다. 차 교수는 “생성형 AI의 등장은 누구나 AI를 쉽게 접하게 됐다는 의미를 넘어 새로운 컴퓨터 운영체계(OS)가 등장한 것으로 봐야 한다”고 강조했다. 챗GPT가 단순히 문서를 요약하거나 데이터를 바탕으로 새로운 문서나 이미지를 만들어 낸다는 개념이 아니라 과거 도스(DOS)라는 운영체계에서 윈도(WINDOW)로 이동한 것처럼 컴퓨터 OS가 이제 챗GPT로 넘어가는 과정이라고 설명한다. 챗GPT라는 운영체계로 여러 가지 일을 할 수 있도록 만드는 장치나 소프트웨어들이 등장할 텐데 그 중심에는 바로 ‘사람’과 ‘돈’이 있다고 차 교수는 주장했다. “샘 올트먼 오픈AI 최고경영자(CEO)나 젠슨 황 엔비디아 CEO, 모리스 창 TSMC 회장 등 최근 AI 시대를 주도하고 있는 사람들을 보세요. 나이는 전혀 걸림돌이 되지 않습니다. AI 시대에는 기술 트렌드를 빠르게 읽고 대응하는 능력이 더욱 필요합니다. 그런 사람들이 인컴번트를 이끌어 나가는 것이죠.” 그렇다면 한국 상황은 어떨까. 차 교수는 한마디로 “안타깝다”고 말했다. 그는 “가장 큰 문제는 돌아가는 상황을 알고 큰 그림을 그릴 줄 아는 고급 인재가 없다는 것”이라며 “한국에서 AI 한다는 사람들은 ‘우물 안 개구리’ 수준에 머물러 현실을 모르고 있다”고 지적했다. 그와 함께 도전적 연구에 투입하는 돈이 외국에 비해 많지 않다는 것도 문제라고 꼬집었다. 차 교수는 “기술 벤처 캐피털들이 더 활성화해 대학이나 연구소에 있는 이들을 주목하고 잠재 능력이 크다고 생각되는 사람들에게는 과감하게 투자할 수 있는 분위기가 돼야 한다”고 조언했다.
  • 이세돌 NYT 인터뷰 “내 세계 붕괴…AI 모든 곳 존재하는 건 시간문제”

    이세돌 NYT 인터뷰 “내 세계 붕괴…AI 모든 곳 존재하는 건 시간문제”

    8년 전 구글 딥마인드의 인공지능(AI) 알파고와 세기의 대국을 벌였던 프로바둑 기사 이세돌은 AI 부상 이후 창의성 등 사람들이 경외심을 느끼던 많은 것들이 사라졌다고 말했다. 이세돌은 10일(현지시간) 미국 일간지 뉴욕타임스(NYT) 인터뷰에서 “사람들은 창의성, 독창성, 혁신에 경외심을 갖곤 했다. 그러나 AI가 나타난 이래 그중 많은 것이 사라졌다”고 밝혔다. 이세돌은 2016년 구글 딥마인드의 바둑 인공지능 알파고와 대결해 1승 4패로 패했다. 당시 인간 최고수 이세돌 9단이 알파고에 패한 것은 큰 충격으로 받아들여졌다. 그는 3년 뒤인 2019년 한국기원에 사직서를 제출하고 AI ‘한돌’과 은퇴 대국으로 25년의 프로기사 생활을 마감했다. 이세돌은 “AI에 진 것은 어떤 의미에서는 나의 세계 전체가 무너지고 있다는 의미였다”고 NYT에 말했다. 그는 알파고와의 대국을 회고하면서 “나는 AI가 언젠가 인간을 이길 것이라고 생각했다. 하지만 아직은 아닐 것이라고 생각했다”고 말했다. 이세돌은 알파고에 패배했다는 사실을 받아들이기 어려워했다고 한다. NYT는 그가 이전에는 예술의 형태로 여겼던 것, 기사의 개성과 스타일의 연장선에 있던 것들이 이제는 알고리듬의 가차 없는 효율성을 위해 내버려졌다고 전했다. 이세돌은 “나는 더 이상 대국을 즐길 수 없었다”면서 “그래서 은퇴했다”고 말했다. 다만 이세돌은 AI 시대를 준비하되, 너무 두려워할 필요가 없다고 밝혔다. AI의 능력이 뛰어나지만, 그런 능력을 만든 것 역시 인간이라는 것이다. 그는 “AI가 많은 일자리를 대체할 수 있지만, 그만큼 새로운 일자리를 창출할 수 있다”며 “또 바둑을 만들고 또 그 바둑을 마스터한 AI 시스템을 설계한 것도 전부 인간이라는 점을 기억하는 게 중요하다”고 말했다. 최근 이세돌은 어린이들에게 바둑을 가르치는 학원을 운영하는 한편으로, AI에 대해 강연하면서 자신이 알파고와 겨루기 전에 미리 알았으면 좋았을 것들을 사람들에게 알리려 노력하고 있다. 이세돌은 최근 서울에서 한 강연에서 “나는 AI 문제에 일찍 직면했지만, 그것은 다른 사람들에게도 일어날 것이다. 그것은 해피엔딩이 아닐지도 모른다”고 말하기도 했다. 그는 AI와 관련해 비관론자는 아니지만, AI가 인간의 가치를 바꿀지도 모른다는 점을 걱정하고 있다. 고교 졸업반이 된 딸과 대학에서 무엇을 전공해야 할지 상의할 때도 AI가 만들어낼 미래를 고민한다. 이세돌은 “우리는 AI에 쉽게 대체될 수 없거나 AI의 영향을 적게 받을 직업을 선택하는 것에 대해 자주 이야기한다”면서 “AI가 모든 곳에 존재하는 것은 시간의 문제일 뿐”이라고 말했다.
위로