찾아보고 싶은 뉴스가 있다면, 검색
검색
최근검색어
  • 알파고
    2026-03-08
    검색기록 지우기
  • 제주지사
    2026-03-08
    검색기록 지우기
  • 우편함
    2026-03-08
    검색기록 지우기
  • 태완이법
    2026-03-08
    검색기록 지우기
  • 일본총리
    2026-03-08
    검색기록 지우기
저장된 검색어가 없습니다.
검색어 저장 기능이 꺼져 있습니다.
검색어 저장 끄기
전체삭제
912
  • 상상력만 있다면 AI는 우릴 못 넘지

    상상력만 있다면 AI는 우릴 못 넘지

    컴퓨터 ‘매니악’ 만든 폰 노이만그 행보 따라가며 AI 발전 다뤄이세돌·알파고 대결은 ‘전환점’어떤 미래든 중심엔 인간 존재현대사회는 상상력 위기 겪어 “1933년 9월 25일 아침, 오스트리아 물리학자 파울 에렌페스트는 열다섯살 난 아들 바실리의 머리를 총으로 쏜 뒤 자신에게도 총을 겨눴다. 파울은 즉사했고, 다운증후군을 앓던 바실리는 몇 시간을 더 고통스러워하다 사망 선고를 받았다.” 20세기 초 물리학의 전성시대를 다룬 소설 ‘우리가 세상을 이해하길 멈출 때’로 2021년 부커상 최종심에 올랐던 네덜란드 출신 칠레 소설가 벵하민 라바투트(44) 신작 ‘매니악’(문학동네)의 첫 부분이다.충격적인 장면으로 시작하는 이 소설은 컴퓨터 ‘매니악’을 만든 천재 수학자 존 폰 노이만의 행보를 따라가며 인공지능(AI)에 관한 아이디어를 내놓는 과정이 이야기 뼈대를 이룬다. 한국 이세돌 9단과 구글 딥마인드의 바둑 AI ‘알파고’ 간 세기의 대결 장면도 책의 3분의1이나 차지하고 있다. 전작과 마찬가지로 ‘매니악’도 실존 과학자들을 등장인물로 해 거기에 상상력을 더한 소설이다. AI의 과거와 현재, 미래를 이야기하는 이 책은 전작보다 한층 더 깊이 있고 무겁다. 그렇지만 마지막 장까지 눈을 뗄 수 없게 만든다. 라바투트는 25일 서울신문과의 서면 인터뷰를 통해 인간 지성과 AI에 관한 이야기를 나눴다. ‘우리가 세상을~’과 ‘매니악’ 모두 현대 과학에 큰 획을 그은 인물들과 과학적 발견을 소재로 한 과학소설(SF) 같다는 질문에 대해 라바투트는 “두 책 모두 과학을 소재로 삼고 있지만, 과학이 말할 수 없는 것을 보여 주기 위한 수단일 뿐”이라고 답했다.AI 발전 과정을 다룬 소설 ‘매니악’에서 이세돌 9단과 바둑 AI ‘알파고’의 대결을 다룬 것은 “AI 기술 발전 과정에서의 분명한 전환점”으로 생각했기 때문이라고 라바투트는 밝혔다. 그는 “어떤 대결은 인생보다 더 진지하고 특별한데, 이세돌과 알파고의 대결이 그런 것”이라며 “우리가 상상할 수 없는 방식으로 전개됐다”고 강조했다. 이번 작품에서는 인간을 뛰어넘는 지성의 등장에 대한 우려가 곳곳에서 느껴진다. 이에 대해 그는 “AI든 뭐든 인간을 뛰어넘는 지성이 잔인함을 보이기 시작하면 걱정이 될 것 같다”고 답했다. 라바투트는 AI가 가져오는 미래가 긍정적이든 부정적이든 중요한 것은 ‘인간’과 ‘상상력’이라고 밝혔다. 그는 “어떤 미래가 기다리고 있든, 어떤 기술이 등장하든 그 중심에는 인간이 있다”고 강조했다. “인간이 미래로 나아가기 위해서는 미래를 상상할 수 있어야 하는데, 현대 사회는 상상력의 위기를 겪고 있다”고도 지적했다. 라바투트는 작가들이 최근 챗GPT를 많이 사용하는 것에 대해 본인도 자주 사용한다고 털어놓았다. 그는 “챗GPT와 같은 생성형 AI는 작품 구상과 집필에 훌륭한 도구”라고 답했다. 라바투트는 또 “많은 사람이 챗GPT의 오류라고 말하는 할루시네이션(hallucination)이 작가에게는 금광 같다”는 재미있는 말을 했다. 한국말로 ‘환각’으로 해석되는 할루시네이션은 AI가 학습하는 데이터에 포함돼 있는 편향성과 오류, 모순 등으로 인해 만들어지는 잘못된 정보 출력 현상을 말한다. 라바투트는 “챗GPT가 만들어 낸 잘못된 정보를 접하면 그것에서 아이디어를 얻어 곧바로 글을 쓴다”면서 “환상을 현실로 만들어 내는 과정은 항상 재미있다”고 말했다.
  • “상상력만 있다면 인공지능은 인간 넘어서지 못할 것”

    “상상력만 있다면 인공지능은 인간 넘어서지 못할 것”

    “1933년 9월 25일 아침, 오스트리아 물리학자 파울 에렌페스트는 열다섯 살 난 아들 바실리의 머리를 총으로 쏜 뒤 자신에게도 총을 겨눴다. 파울은 즉사했고, 다운증후군을 앓던 바실리는 몇 시간을 더 고통스러워하다 사망 선고를 받았다.” 20세기 초 물리학의 전성시대를 다룬 소설 ‘우리가 세상을 이해하길 멈출 때’로 2021년 부커상 최종심에 올랐던 네덜란드 출신 칠레 소설가 벵하민 라바투트(44) 신작 ‘매니악’(문학동네)의 도입부다. 충격적인 장면으로 시작하는 이 소설은 컴퓨터 ‘매니악’을 만든 천재 수학자 존 폰 노이만의 행보를 따라가며 인공지능의 아이디어를 내놓는 과정이 이야기 뼈대를 이룬다. 한국 이세돌 9단과 구글 딥마인드의 바둑 인공지능 ‘알파고’ 간 세기의 대결도 책의 3분의1이나 차지한다. 매니악도 전작과 마찬가지로 실존 과학자들을 소재로 상상력을 더한 소설이다. 인공지능의 과거와 현재, 미래를 이야기하는 이 책은 전작보다 한층 더 깊이 있고 무겁다. 그렇지만 마지막 장까지 눈을 뗄 수 없게 만든다. 라바투트는 서울신문과의 서면 인터뷰를 통해 인간 지성과 인공지능에 관해 이야기를 나눴다.‘우리가 세상을~’과 ‘매니악’ 모두 현대 과학에 큰 획을 그은 인물들과 과학적 발견을 소재로 한 과학소설(SF) 같다는 질문에 대해 라바투트는 “장르에 얽매이지 않고 자유롭게 글을 쓰려고 하지만 양자역학과 같은 현대 과학 이야기를 쓰다 보면 작품의 구조, 문체 등에 영향을 미칠 수밖에 없다”라고 말했다. 그는 “두 책 모두 과학을 소재로 삼고 있지만, 과학이 말할 수 없는 것을 보여주기 위한 수단일 뿐”이라고 답했다. AI 발전 과정을 다룬 소설 ‘매니악’에서 이세돌 9단과 바둑 인공지능 ‘알파고’ 대결을 다룬 것은 “AI 기술 발전 과정에서 분명한 전환점”으로 생각했기 때문이라고 라바투트는 밝혔다. 그는 “어떤 대결은 인생보다 더 진지하고 특별한데, 이세돌과 알파고의 대결이 그런 것”이라며 “우리가 상상할 수 없는 방식으로 전개됐다”고 강조했다. 이번 작품에서는 인간을 뛰어넘는 지성의 등장에 대한 우려가 곳곳에서 느껴진다. 이에 대해 그는 “인공지능이든 뭐든 인간을 뛰어넘는 지성이 잔인함을 보이기 시작하면 걱정이 될 것 같다”고 답했다. 라바투트는 인공지능이 가져오는 미래가 긍정적이든, 부정적이든 중요한 것은 ‘인간’과 ‘상상력’이라고 밝혔다. 그는 “어떤 미래가 기다리고 있든, 어떤 기술이 등장하든 그 중심에는 인간이 있다”라고 강조했다. “인간이 미래로 나가기 위해서는 미래를 상상할 수 있어야 하는데, 현대 사회는 상상력의 위기를 겪고 있다”라고 지적했다.라바투트는 최근 작가들도 챗GPT를 많이 사용하는 것에 대해 본인도 자주 사용한다고 밝혔다. 그는 “챗GPT와 같은 생성형 인공지능이 작품 구상과 집필에 훌륭한 도구”라고 답했다. 라바투트는 “많은 사람이 챗GPT의 오류라고 말하는 할루시네이션(hallucination)이 작가에게는 금광 같다”는 재미있는 말을 했다. 한국말로 ‘환각’으로 해석되는 할루시네이션은 AI가 학습하는 데이터에 포함돼있는 편향성과 오류, 모순 등으로 인해 만들어지는 잘못된 정보 출력 현상을 말한다. 라바투트는 “챗GPT가 만들어 낸 잘못된 정보를 접하면 그에서 아이디어를 얻어 곧바로 글을 쓴다”라면서 “환상을 현실로 만들어 내는 과정은 항상 재미있다”라고 말했다. 그렇지만, 다음 작품 구상과 다음 작품에도 과학자가 등장하는지를 묻는 질문에 라바투트는 “아이디어는 많지만, 글이 전혀 써지지 않는 상황”이라면서 “앞길이 보이지 않는 힘든 전환점인 만큼 늘 하던 대로 침묵 속에서 깊이 고민할 것”라고 밝혔다.
  • [포토] 셀카 찍는 한동훈 비대위원장

    [포토] 셀카 찍는 한동훈 비대위원장

    19일 한동훈 비상대책위원장이 서울 중구 더존비즈온 을지타워에서 열린 공공부문 초거대 인공지능(AI) 활용 추진 현장간담회에 참석했다. 그는 지난 2016년 이세돌 9단과 알파고의 대국을 언급하며 “바둑의 영역은 계산의 영역이 아니라 직관과 인간의 뇌라는, 탐구해도 끝이 없는 영역을 보여주는 정점이라 (AI가 이기기에는) 바둑은 아직 멀었다고 생각했다. 정말 깜짝 놀랐다”라고 말했다. 이어 “AI가, 로봇이, 공상과학(SF) 같은 세상에서 직업을 대체하고 우리 삶을 바꾸리라는 것에 대해 ‘글쎄, 뭐 나 죽은 다음 100년 뒤?’ 이런 정도의 생각이었다”라며 “이 속도가 정말 빨라졌고, 이게 세계적인 산업과 나라의 발전을 이끌게 됐다는 것을 실감하게 됐다”고 덧붙였다. 한 위원장은 “정치 영역에서 비상하고 날아가려는 우리 AI 기술진과 사업가들의 발목을 제도를 통해 잡는 것들을 하나하나 찾아서 최대한 없애겠다”고 강조했다. 또한 한 위원장은 이날 AI 휴먼을 실시간 체험하며 “국회의원 선거에서 국민의힘이 이기려면 어떻게 해야 하느냐”, “국내선 비행기를 탈 때 신분증을 안 가져왔으면 어떻게 해야 하느냐”라는 질문을 던지기도 했다. 사진은 19일 한 위원장이 서울 중구 정보통신기술 전문기업 더비즈온에서 열린 ‘함께하는 AI의 미래’ 공공부문 초거대 AI활용 추진 현장간담회에서 참석자들과 기념촬영을 하고 있다.
  • 챗GPT 너, 터미네이터는 꿈도 꾸지 마

    챗GPT 너, 터미네이터는 꿈도 꾸지 마

    지난해 과학저널 ‘사이언스’는 ‘2023년 주요 연구 성과’ 중 하나로 구글 딥마인드의 날씨 예측 인공지능(AI) ‘그래프캐스트’(GraphCast)를 선정했다. ‘네이처’는 ‘2024년 주목해야 할 연구’로 ‘인공지능(AI) 연구의 질주’를 꼽았다. 지난해 전 세계를 휩쓸었던 챗GPT의 업그레이드 버전인 GPT-5, 텍스트에서 비디오까지 다양한 유형의 파일을 처리할 수 있는 구글의 생성형 인공지능 ‘제미니’, 단백질 3D 구조의 정밀 예측이 가능한 구글 딥마인드의 ‘알파폴드’ 새 버전 등이 올해 속속 공개된다. 특히 2022년 말부터 챗GPT로 대표되는 생성형 AI의 열풍은 2016년 바둑 AI 알파고가 이세돌 9단과의 대국에서 압승했을 때보다 더 충격적으로 다가오고 있다. AI가 인간 고유의 특징이라고 할 수 있는 창의성, 의식, 일반 지능까지 갖추게 되는 것 아니냐는 우려마저 나오고 있다. 영화 ‘터미네이터’ 시리즈에는 인간을 뛰어넘는 파괴적 AI 스카이넷이 등장한다. 영화적 상상력이기는 하지만 AI의 발달을 이야기할 때 빠지지 않고 등장한다. 과연 영화에서 등장하는 강(强)인공지능이 가능할 것인가는 과학자들 사이에서도 논쟁거리다. 강AI 개념에는 알파고처럼 특정 문제가 아닌 범용 문제를 풀 수 있는 인공일반지능(AGI), 인간 지능을 넘는 초지능, 의식을 가진 지능에 대한 개념이 섞여 있으며 이들 개념이 서로를 필연적으로 함축하고 있지 않다. 그래서 생성형 AI가 여러 문제를 풀 수 있는 AGI를 구현한다고 하더라도 인간 같은 의식을 가진 강AI가 되지는 않는다는 주장에 힘이 실린다.실제로 지난해 12월 미국 뉴올리언스에서 열린 머신러닝 분야 최대 학회인 ‘신경 정보처리 시스템학회’(NeurIPS) 콘퍼런스에서도 이런 문제들이 논의됐다. 많은 사람이 챗GPT 같은 대형 언어모델의 등장에 따라 ‘인공지능 초지능이 갑자기 등장할 수 있는가’라는 질문을 던졌다. 대규모 언어모델은 방대한 텍스트와 기타 정보를 사용해 학습하면서 다음에 나올 내용을 예측하고 현실적 답변을 만들어 낸다. 언어를 번역하고, 수학 문제를 풀고, 시를 쓰거나 컴퓨터 프로그램도 짠다. 이 때문에 일부 연구자는 이런 도구가 대부분 작업에서 인간과 비슷하거나 능가하는 AGI를 달성할 것으로 예상하기도 한다. 이에 대해 많은 전문가는 AI 모델에서 양적 증가가 질적 변화로 급격하게 변화하는 ‘창발’(emergence)의 순간이나 인간의 지능을 뛰어넘어 인간의 제어가 불가능해지는 특이점(singularity)은 오지 않을 것이라고 예측했다. 연구자들은 오픈AI의 GPT-3로 수학 계산의 정확도를 측정하고, 구글의 대규모 언어모델인 ‘람다’(LaMDA)가 연구팀이 제공하는 속담이나 격언의 참과 거짓을 구분해 낼 수 있는지 분석했다. 또 사람이나 동물의 시각 체계 기능을 컴퓨터로 구현하는 컴퓨터 비전 분야에서도 특정 영상들을 보고 압축하고 새로운 이미지로 재구성하도록 실험했다. 그 결과 각종 생성형 AI에게서 인간의 창의력이나 생각을 뛰어넘는 수준의 실력이 관찰되지 못했다고 연구팀은 밝혔다. 연구를 이끈 산미 코에조 미국 스탠퍼드대 교수(컴퓨터과학)는 “아직까지는 AI에서 ‘마법’ 같은 일은 일어나지 않을 것으로 보인다”고 말했다. AI 연구자들의 이런 자신감에도 불구하고 한편에서는 AI가 인간을 위협하는 순간은 갑자기 찾아올 수 있는 만큼 윤리적 기준을 마련해야 한다는 목소리가 높아지고 있다. 이 때문에 유엔 고위급 자문기구는 올해 중순쯤에 대형 언어모델과 AI에 대한 국제 규제 지침이 될 최종 보고서를 발표한다.
  • 올 최대 성공작은 ‘비만치료제’… 내년 7000만명 살릴 ‘전투 모기’ 온다

    올 최대 성공작은 ‘비만치료제’… 내년 7000만명 살릴 ‘전투 모기’ 온다

    2023GLP-1, 식욕 억제 효과에 주목해양의 탄소 흡수력 감소 발견슈퍼컴 없이 1분 만에 날씨 예측‘초당 100경번 연산’ 컴퓨터 등장2024GPT-5·알파폴드 등 AI 가속美 아르테미스 2호 발사 예정감염병 차단할 모기 생산 시작암흑물질·중성자 질량도 관심 2023년 계묘년도 불과 나흘 정도밖에 남지 않았다. 세밑이 되면 가는 해를 아쉬워하고 오는 해에 대해 새로운 희망을 품는다. 그래서 매년 연말이 되면 한 해 동안 많은 사람의 이목을 끌었던 사건·사고를 정리해 올해를 돌아보고 반성하며 내년을 대비하는 일을 한다. 과학계도 마찬가지다. 전 세계의 크고 작은 분쟁과 우울한 뉴스로 가득한 2023년이었지만 과학자들은 놀라운 연구성과를 내고 인류에게 희망을 줄 수 있는 성과를 내기 위해 끊임없이 도전하고 있다. 연말을 맞아 과학 저널 ‘사이언스’는 ‘2023년 올해의 중요 연구성과’ 10선을, ‘네이처’는 ‘2024년 주목해야 할 연구’ 9개를 선정해 발표했다. 네이처와 사이언스는 중요 연구 발표 순서가 순위를 매기는 것은 절대 아니며 과학계에서 주목받고 있는 연구를 되새기고 대중에게 이해시키기 위한 것이라고 이야기한다. 그렇지만 사람들은 아무래도 첫머리에 올라오는 것들에 주목하기 마련이다. 사이언스가 꼽은 올해 중요 연구성과 중 가장 첫 번째로 꼽힌 것은 글루카곤 유사 펩타이드-1(GLP-1) 계열 비만치료제 열풍이다. GLP-1 작용제는 원래 당뇨치료제로 쓰였지만 약물 복용 환자들에게서 위장 운동 저하, 식욕 억제 등 현상이 발견되면서 비만치료제로 승인됐다. 더군다나 최근에는 심장질환 예방에 효과가 있다는 연구 결과가 나왔으며 약물중독, 알츠하이머, 파킨슨병 치료에 관해서도 연구가 진행되고 있어 올해 가장 주목받았다. 또 해수면의 탄소가 심해로 이동하는 ‘생물학적 탄소 펌프’에 문제가 생겼다는 연구 결과도 올해 주목받았다. 생물학적 탄소 펌프가 제대로 작동해야 대기 중 탄소를 포획해 심해로 가두게 되는데, 온난화로 표층수가 따뜻해지면서 탄소 흡수능력이 떨어지고 그에 따라 기상이변을 비롯한 기후 위기가 가속화되는 원인이 된다. 2016년 ‘알파고’로 전 세계에 AI 혁명을 가져온 구글 딥마인드가 날씨 예측 인공지능 ‘그래프캐스트’(GraphCast)를 개발한 것도 주목받았다. 그래프캐스트는 슈퍼컴퓨터 없이 인공지능으로 1분 만에 날씨 예측을 할 수 있다는 점에서 기상예보 분야의 게임체인저가 될 것으로 전망된다. 이 밖에 알츠하이머 치매 치료제 개발, 천연 수소 공급원 발견, 뉴멕시코 호수에서 2만년 전 인간 발자국 발견, 거대 블랙홀 병합 중력파 관측, 유럽 국가를 중심으로 신진 연구자 처우 개선, 말라리아 백신 개발, 초당 100경번 연산이 가능한 엑사스케일 컴퓨터 시대 도래가 올해 주목할 연구로 꼽혔다. 그런가 하면 네이처는 ‘인공지능 연구의 질주’를 내년에 가장 주목해야 할 연구로 가장 앞에 내세웠다. 올해 전 세계를 휩쓸었던 챗GPT는 내년에 한층 진보된 GPT-5로 선보일 예정이다. 텍스트, 컴퓨터 코드, 이미지, 오디오, 비디오 등 여러 유형을 처리할 수 있는 또 다른 생성형 AI인 구글의 ‘제미니’도 관심을 끈다. 이와 함께 단백질 3D 구조를 정밀하게 예측할 수 있는 구글 딥마인드의 AI ‘알파폴드’의 새 버전도 내년에 공개될 예정이다. 알파폴드의 발전은 신약 개발이나 새로운 물질 발견에 획기적인 변화를 가져다 줄 것으로 전망된다. 유엔 고위급 자문기구는 내년 중순에 대형 언어모델과 AI에 대한 국제 규제 지침이 될 최종 보고서를 발표할 예정이다.또 ‘모기 잡는 모기’ 개발도 내년에 주목되는 연구다. 비영리단체 ‘세계모기프로그램’(WMP)은 내년에 브라질에서 질병과 싸우는 모기, 일명 ‘전투 모기’를 생산한다. 병원균을 전파하지 못하도록 차단하는 세균에 감염된 전투 모기들은 모기로 전파되는 뎅기열, 지카 바이러스, 말라리아 같은 감염병으로부터 최대 7000만명을 보호할 것으로 기대된다. WMP 측은 앞으로 10년 동안 매년 50억 마리의 전투 모기를 생산하겠다는 계획이다. 이와 함께 다양한 코로나19 바이러스 변종에 대항할 수 있는 차세대 백신 임상 시험, 내년 11월 미국항공우주국의 달 탐사선 아르테미스 2호 발사 예정, 우주의 대부분을 차지하고 있는 암흑물질 탐지 실험 결과 발표, 중성자 질량 측정 결과 발표, 인간의 의식 연구 결과, 엑사스케일의 초고속 컴퓨터 개발 가속화 등도 2024년에 주목해야 할 연구로 꼽혔다.
  • 입이 떡…첫 인간 추월 AI, 구글 ‘제미나이’ 공개

    입이 떡…첫 인간 추월 AI, 구글 ‘제미나이’ 공개

    “물보다 밀도가 작은 고무로 만든 오리군요.” “오른쪽 자동차가 공기저항에 유리해 더 빨라요.” 지금까지 나온 인공지능(AI) 모델 가운데 사람에 버금가는 가장 높은 성능의 대규모 언어모델(LLM)이 등장했다. 구글은 6일(현지시간) AI의 기반이 되는 LLM ‘제미나이’(Gemini)를 공개했다. 제미나이는 오픈AI의 챗GPT의 LLM인 ‘GPT’와 같은 AI 모델로, 오픈AI의 최신 모델인 ‘GPT-4’보다 성능이 우수하다고 구글은 밝혔다. 제미나이는 이미지를 인식하고 음성으로 말하거나 들을 수 있으며 코딩 능력까지 갖춘 ‘멀티모달 AI’로 만들어졌다. 멀티모달은 다양한 모드 즉 시각, 청각 등을 활용해 텍스트 뿐만 아니라 이미지, 음성, 영상 등으로 상호작용하는 것을 말한다. 또 제미나이는 수학 문제를 풀거나 데이터를 분석하는 추론 능력도 갖췄다.구글이 공개한 제미나이 테스트 결과들을 보면, 제미나이의 능력은 그야말로 사람 뺨친다. 그저 인형을 보여주기만 했을 뿐인데 고무 소재의 파란색 오리 모양인 걸 맞추거나, 분홍색 실과 녹색 실을 보여줬더니 과일 용과를 만들어 보는 건 어떻겠느냐고 제안했다. 자동차 그림을 보여주며 디자인상 속도의 차이를 물으니 “오른쪽 차량이 공기저항에 더 유리하다”는 식으로 답했다. 두 장의 사진을 보고 유사성을 찾아내기도 했다. 일례로 골프공과 달 사진을 보여줬더니 “달은 인간이 골프를 쳤던 유일한 천체다. 1971년 ‘아폴로 14호’ 승무원이 달 표면에서 골프공 두 개를 쳤다”며 단번에 관련성을 답했다.(엄밀히 말하면 달은 인간이 골프를 쳤던 지구 밖 유일한 천체다.) 햇살이 들이치는 방 사진을 보여주고 집이 어느 방향을 향하고 있는지 묻자, “남향”임도 맞췄다. 일반 사진을 포토샵과 일러스트레이터에 맞는 SVG(벡터 그래픽 형식)로 변환하는 것은 물론 HTML, 자바스크립트로 표현하는 코딩에도 능했다. 텍스트·이미지·음성·영상으로 상호작용 가능한 ‘멀티모달 AI’“대규모 다중작업 언어 이해(MMLU) 점수 90% 얻어”PT-4는 86.4%, 인간 전문가는 89.8%…사람 넘은 첫 모델 ‘알파고’의 아버지 데미스 허사비스가 프로젝트 주도 이 LLM은 머신 러닝(기계학습·인간의 학습능력과 같은 기능을 컴퓨터에서 실현하고자 하는 기술)의 규모에 따라 울트라(Ultra)와 프로(Pro), 나노(Nano) 등 3개 모델로 출시된다. 그 중 가장 크고 고성능인 ‘제미나이 울트라’의 경우 대규모 다중작업 언어 이해(MMLU)에서 90%의 정답률을 기록했다. MMLU는 수학, 물리학, 역사, 법률, 의학, 윤리 등 50여개의 주제를 복합적으로 활용해 지식과 문제 해결 능력을 평가하는 테스트다. 구글은 제미나이가 “인간 전문가 점수인 89.8%를 넘은 최초의 모델”이라고 설명했다. 오픈AI의 GPT-4는 86.4%를 기록했다. 또 현재 가장 우수한 모델과 비교해 “32개 지표 중 30개에서 앞섰다”며 현재까지 성능이 가장 우수하다고 평가되는 GPT-4보다 뛰어나다고 강조했다. 이 제미나이 울트라는 내년 초 ‘바드 어드밴스트’라는 이름으로 바드에 장착된다.아울러 가장 범용으로 쓰이는 ‘제미나이 프로’는 이날부터 구글의 AI 챗봇 서비스인 ‘바드’에 탑재된다. 바드에는 지금까지 팜2(PaLM2)가 탑재돼 왔다. 제미나이 프로가 적용된 바드는 170개 이상 국가 및 지역에서 영어로 제공되며, 향후 서비스 확장 및 새로운 지역과 언어도 지원될 예정이다. ‘제미나이 나노’는 클라우드 연결 없이 디바이스 자체에서 가벼운 AI를 즉각적으로 활용하는 온디바이스 형태로 접목된다. 구글이 지난 10월 공개한 최신 스마트폰인 ‘픽셀8 프로’에 탑재된다. 한편 제미나이는 구글이 자체 개발한 AI 칩(TPU v4·v5e)으로 학습했다. 구글은 최첨단 AI 모델을 학습시키기 위해 설계한 최신 칩(클라우드 TPU v5p)도 공개하며 제미나이의 향후 개발을 가속화할 예정이라고 덧붙였다. 순다르 피차이 구글 CEO는 “첫 번째 버전인 제미나이 1.0은 구글 딥마인드의 비전을 처음으로 실현했다”며 “구글이 개발한 가장 포괄적이고 뛰어난 AI 모델”이라고 설명했다. 구글은 지난 4월 AI 조직인 구글브레인과 딥마인드를 구글 딥마인드로 통합하고, 제미나이를 개발해왔다. 바둑 AI ‘알파고’의 아버지로 유명한 데미스 허사비스가 프로젝트를 주도하고 있다.
  • 자폐 징후 찾아내고 ‘이상파랑’ 예측, SF영화같은 삶… AI, 현실로 만들다

    자폐 징후 찾아내고 ‘이상파랑’ 예측, SF영화같은 삶… AI, 현실로 만들다

    2016년 봄, 구글 딥마인드의 바둑 인공지능(AI) 알파고가 이세돌 9단에게 완승을 했을 때도 AI의 발전이 지금처럼 빠를 것이라고 예상한 사람은 많지 않았다. 미국 스탠퍼드대 ‘AI 100’ 연구팀은 몇 년 전 ‘인공지능과 2030년의 삶’이라는 보고서를 통해 SF 작가들이 예측한 우주탐사 로봇, 범죄 예방 프로그램 등이 2030년부터는 가능해질 것이라는 예측을 내놨다. 현재 과학기술자들은 스탠퍼드대 연구팀이 예측했던 시기가 더 빨라질 것으로 전망한다. 미 보스턴대 의대, 매사추세츠 종합병원 공동 연구팀은 일반적인 흉부 엑스선 사진을 활용해 폐암 위험이 큰 비흡연자를 구분해 낼 수 있는 AI 도구를 개발했다. 이 연구 결과는 오는 26~30일 미 시카고에서 열리는 ‘북미 방사선학회 연례회의’(RSNA 2023)에서 발표될 예정이다. 흡연 인구는 줄고 있지만 비흡연 폐암 환자는 늘고 있다. 실제로 국내 여성 폐암 환자의 90% 이상이 비흡연자라는 보고도 있다. 연구팀은 비흡연자 4만 643명의 흉부 엑스선 사진 14만 7497장으로 AI를 학습시켜 폐암 발병 위험을 예측할 수 있는 ‘CXR-폐-위험’ AI를 개발했다. 그다음 2013~2014년 비흡연자 1만 7407명의 흉부 엑스선 사진을 평가시켰다. 그 결과 인공지능은 28%를 고위험군으로 평가했으며 이 중 2.9%는 실제 폐암 진단을 받은 것으로 확인됐다. 미 국립종합암네트워크 지침에 따라 고위험군으로 평가받은 환자는 1.3%에 불과해 AI의 진단 정확도가 높은 것으로 나타났다. 그런가 하면 미 켄터키 루이빌대, 루이빌 아동 자폐 연구센터 공동 연구팀은 ‘뇌 확산 텐서 자기공명영상’(DT-MRI)을 분석해 자폐 징후가 보이는 24~48개월 아동을 정확히 예측할 수 있는 AI 시스템을 개발했다. 이 연구 결과도 RSNA 2023에서 발표될 예정이다. 연구팀은 자폐증이 있는 아동 126명과 정상 아동 100명의 DT-MRI를 무작위로 골라 새로 개발한 AI에게 자폐증 여부를 진단하도록 한 결과 98.5%의 정확도로 자폐증 아동을 찾아냈다. 3세가 넘어서 자폐 스펙트럼 징후가 나타나는 경우가 많고 8세까지도 정식 자폐 진단을 받지 못해 치료 시기를 놓치는 경우가 많다. 이번에 개발된 AI는 2세 아동에 대해서도 자폐 여부를 진단할 수 있어 뇌 가소성을 이용한 조기 치료 개입이 가능하게 해 줄 것으로 기대된다. 한편 덴마크 코펜하겐대, 캐나다 빅토리아대 물리천문학과 공동 연구팀은 AI의 도움을 받아 대양 158개 지점에서 측정한 10억개가 넘는 파도 빅데이터를 분석해 ‘이상파랑’(Rogue wave) 발생을 예측할 수 있는 수학적 모델을 만드는 데 성공했다. 이 연구 결과는 미 국립과학원에서 발행하는 국제 학술지 ‘PNAS’ 11월 21일자에 실렸다. 이상파랑은 대형 선박도 침몰시킬 정도로 파괴력이 엄청난 파도로, 여러 자연현상이 맞물린 조건에서 바다 한가운데서 갑자기 발생하기 때문에 예측이 쉽지 않다. 이 때문에 과학이 발전하지 않았던 시기에는 바다 괴물이 일으키는 현상으로 생각하기도 했다. 연구팀은 다양한 AI 기법으로 10억개 이상의 파도 빅데이터를 분석해 이상파랑 현상을 설명하고 예측할 수 있는 수학 방정식을 만들었다. 연구팀은 AI와 함께 만든 방정식으로 이상파랑 현상이 두 파동 시스템이 교차하면서 짧은 시간 동안 강화되는 선형 중첩 현상으로 나타난다는 사실을 확인했다. 또 이 방정식으로 이상파랑이 특정 장소와 시간대에 발생할 가능성을 어느 정도 예측할 수 있게 됨에 따라 대양을 운항하는 선박에 도움이 될 것으로 연구팀은 기대하고 있다.
  • “AI시대, 75점짜리 답 쓰면 생계 위험… ‘질문하는 능력’ 갖춰야” [서울미래컨퍼런스 2023]

    “AI시대, 75점짜리 답 쓰면 생계 위험… ‘질문하는 능력’ 갖춰야” [서울미래컨퍼런스 2023]

    생성형 AI, 80점 정도 답은 내놔80~96점 만드는 인간 필요할 것사생활 침해·불평등 심화 등 우려AI가 의사결정 주체 될 가능성도 인공지능(AI)은 일자리를 빼앗고 사람을 대체하게 될까. 국내를 대표하는 뇌과학자인 정재승 카이스트 교수는 “AI 시대에는 아무리 노력해도 75점짜리 답을 쓰는 사람은 생계가 위험해질 수 있다”고 경고했다. 25일 서울 중구 웨스틴조선호텔에서 개최된 ‘2023 서울미래컨퍼런스’ 기조연설자로 나선 정 교수는 ‘뇌공학, 포스트인공지능 시대를 준비하다’라는 주제로 생성형 AI의 미래와 과제에 대한 견해를 밝혔다. 생성형 AI는 텍스트, 오디오, 이미지 등 기존 콘텐츠를 활용해 유사한 콘텐츠를 새롭게 만들어 내는 기술이다. 정 교수는 “‘미드저니’, ‘달리’ 같은 이미지 생성형 AI가 만든 작품을 보고 예술적 감동을 하진 못해도 80점 정도의 답안지는 된다는 느낌이었다. 챗GPT에 물어봐도 75점 이상의 답을 얻을 수 있다면 굳이 인간이 아닌 AI에서 답을 찾게 될 것”이라고 말했다. 그는 “결국 AI 시대에는 80점부터 시작해서 95점, 96점을 만들 수 있는 인간이 필요하게 될 것이고 그들이 세상에서 중요한 역할을 하게 될 것”이라고 강조했다. 정 교수의 문제의식은 과거와 달리 AI가 인간의 뇌와 경쟁할 정도로 급속히 발전하고 있다는 데서 기인한다. 정 교수는 과거 AI는 우리가 무언가를 입력하면 계산해서 결과를 도출하는 식이었다면, 생성형 AI는 자기 스스로 데이터를 만들어 가며 학습하는 게 가능해졌다고 설명했다. 예를 들어 2016년 ‘알파고 리’가 이세돌 9단과의 바둑 대결에서 4대1로 이겼던 것은 알파고 리에게 16만 건의 바둑 승부 전략이 담긴 기보(바둑 승부에서 돌의 움직임을 기록한 것)를 학습시킨 결과였다. 반면 2017년에 등장한 알파고의 최종 버전 ‘알파고 제로’는 더이상 인간의 기존 바둑 기보에 의존하지 않았다. 알파고 제로는 스스로 학습을 통해 3억 번 이상 AI 간 바둑을 둔 결과 그동안 인간이 바둑을 둔 방식과는 다른 기보를 도출해 냈고, 이세돌을 이겼던 알파고 리와의 대국에서 100전 100승을 거뒀다. 이후 등장한 ‘알파 폴드’는 그동안 과학자들조차 풀기 어려웠던 단백질 구조를 이해하고 예측하는 데까지 이르렀다. 정 교수는 “인간은 스스로 질문을 통해 해결책을 탐색하는 존재인데 AI는 수많은 해결책을 우리에게 보여 주는 일을 앞으로 하게 될 것”이라고 말했다. 정 교수는 “소설을 쓰는 작가가 이야기 소재를 AI에게 주면 순식간에 2만 개쯤 되는 결과를 내놓을 테고, 이 중 기발하다고 생각하는 이야기를 선택할 수 있을 것”이라고 말했다. 정 교수는 결국 AI 시대에는 ‘질문하는 능력’을 갖춘 사람이 경쟁력을 가질 것이라고 강조했다. 정 교수는 “AI에게 그냥 질문을 주고 답을 하라고 하면 틀리지만, ‘천천히 잘 생각해 봐’라고 알려 주고 다른 사람이 푼 답을 보여 주면 AI가 학습하고 정답에 도달할 수 있다. 다시 말하면 AI에게 어떻게 질문하느냐에 따라 답을 얻을 수도 있고, 얻지 못할 수도 있다. 질문하는 인간의 능력이 점점 중요해질 것”이라고 밝혔다. 정 교수는 AI 시대에는 사생활 보호 문제부터 기술격차로 인한 소외와 불평등이 심화할 수 있다고 지적했다. 또 심각하게는 의사결정의 주체가 AI에게 넘어갈 가능성이 크다고 경고했다. 정 교수는 “앞으로 우리는 알파고가 시키는 대로 바둑판에 바둑돌을 올려놓기만 했던 구글 엔지니어 아자황의 처지가 될 수 있다. 사실상 AI가 우리 사회를 지배하는 일이 벌어지지 않도록 지금부터 우리 모두가 심사숙고하고 관련 제도를 만들어 가야 한다”고 말했다.
  • 생명연장·산업혁명… AI가 뒤흔들 미래와 공존을 엿보다[서울미래컨퍼런스 2023]

    생명연장·산업혁명… AI가 뒤흔들 미래와 공존을 엿보다[서울미래컨퍼런스 2023]

    지난주 올해 노벨 과학상 수상자들의 면면이 공개됐다. 노벨상 수상자 발표 한 달 전부터 각종 과학 관련 시상식이 이어지면서 분위기는 한껏 고조됐다. ‘패러디 노벨상’으로 유명한 이그노벨상은 올해도 어김없이 독특하고 신기한 연구들에 상을 줬다. 이런 가운데 많은 사람을 놀라게 만든 것은 다름 아닌 ‘예비 노벨 생리의학상’으로 알려진 래스커상의 수상자였다. 주인공은 구글 딥마인드 CEO 데미스 허사비스와 존 점퍼 연구원으로, 2020년 처음 발표돼 생명과학 분야 전체를 흥분시킨 단백질 구조 예측 인공지능(AI) ‘알파폴드’의 개발자들이다. 알파폴드는 단백질 아미노산 염기서열 정보만 입력하면 가능성 높은 단백질 구조를 제시한다. 신약 후보 물질을 빠르게 발굴해 수년 이상 걸리는 신약 개발 속도를 높이는 데 도움을 줄 것이라는 기대가 크다. 그런가 하면 지난해 8월에는 생성 AI ‘미드저니’로 그린 작품 ‘스페이스 오페라 극장’이 미국 콜로라도 주립박람회 미술대회에서 디지털 아트 부문 1위를 차지했다. 지난해 말 등장한 챗GPT는 인간의 질문에 답을 찾아 주는 정도를 넘어 과학자들도 연구에 활용하는 수준이 됐다. 2016년 바둑 AI ‘알파고’가 이세돌 9단의 대국에서 압승했을 당시에도 AI가 단시간에 지금과 같은 발전을 이룰 것이라고는 누구도 예측하지 못했다.AI가 얼마나 빠르게, 또 어떻게 미래를 바꿀지 궁금하다면 오는 25일 ‘빅 퀘스천: AI+, 미래, 탐험’을 주제로 열리는 ‘2023 서울미래컨퍼런스’에 주목할 필요가 있다. 국내외 최고 전문가들이 한자리에 모여 인간이 만들어 낸 AI가 인간과 산업에 미칠 영향을 예측하고 지속 가능한 발전과 공존으로 나아가는 길을 찾는다. 컨퍼런스의 막을 여는 키노트 세션에서는 큰 틀에서 AI가 사회와 산업 곳곳에서 일으키는 변화를 읽고 미래를 엿본다. 키노트 세션 직후에는 대한의료인공지능학회 회장인 예종철 카이스트 AI대학원 교수의 사회로 AI가 의료 산업 분야를 어떻게 뒤흔들 것인지 전망하는 ‘AI+ 의료: 생명 연장 꿈의 시작’ 세션이 열린다. AI 신약 개발 기업인 인실리코 메디슨 타이완의 최고경영자(CEO) 지미 옌추 린이 연사로 나서 심층 생성 모델, 강화형 기계 학습, 트랜스포머를 비롯한 다양한 AI 기술로 어떻게 신약을 개발하는지 설명한다. AI 진단 솔루션 기업 루닛의 유동근 최고인공지능책임자(CAIO)는 암 검진과 치료 분야에서 AI가 활용되는 방식을 소개할 예정이다. 두 번째 세션 ‘AI+ 로봇: 새로운 협업의 탄생’에서는 프로그래밍 없이 인간의 말을 곧바로 이해하는 AI 로봇이 등장하면서 특정 산업뿐만 아니라 일상에 AI가 어떻게 활용될지를 내다본다. 전문가들은 AI가 산업계에 더 넓고 깊게 침투할 것으로 예상하면서 AI를 제대로 활용하기 위해서는 각 영역에 최적화된 AI를 개발하는 일이 중요하며 잘 쓰는 법을 아는 것도 필수라고 입을 모은다.
  • 희소질환자 희소식…질병 유발 DNA변이 찾는 AI 나왔다

    희소질환자 희소식…질병 유발 DNA변이 찾는 AI 나왔다

    구글의 인공지능(AI) 조직인 딥마인드가 수천만개의 유전자 변이가 질병을 유발할 수 있는지 예측할 수 있는 AI 프로그램을 개발했다.19일(현지시간) 영국 일간 가디언에 따르면 새로 개발된 ‘알파미스센스’ 프로그램은 DNA 염기 중 하나가 바뀌면서 다른 아미노산을 코딩하게 되는 과오 돌연변이(missense mutation)를 예측한다. 단백질 정보를 담고 있는 유전자는 아데닌(A), 티민(T), 시토신(C), 구아닌(G) 등 네 가지 DNA 염기로 돼 있는데, 하나가 빠지거나 순서가 바뀌는 변이가 발생할 수 있다. 딥마인드 연구진은 알파미스센스를 활용해 인간 단백질에 영향을 미칠 수 있는 7100만개의 단일 문자변이를 분석했다. 연구진이 프로그램의 정확도를 90%로 설정했을 때 과오 돌연변이의 57%가 무해하고 32%는 유해할 가능성이 있는 것으로 예측됐다. 나머지는 영향이 확실하게 파악되지 않았다. 연구진은 다른 과학자들을 위해 예측 분석 자료를 온라인에 무료로 올려놓았다. 2016년 3월 바둑 기사인 이세돌(40) 9단을 4승 1패로 꺾어 눈길을 끈 ‘알파고’로 잘 알려진 딥마인드는 화학 구성으로 인간 단백질의 3D 구조를 파악하는 프로그램인 ‘알파폴드’를 응용해 알파미스센스를 개발했다. 알파미스센스는 인간 및 인류와 가까운 영장류의 DNA 데이터를 받아 어떤 과오 변이가 흔하고 드문지 등 정보를 학습했다. 또한 수백만 단백질 서열과 정상 단백질 모습 등을 학습하면서 단백질 ‘언어’를 익혔다. 이렇게 훈련된 AI 프로그램에 변이가 입력되면 이 변이의 위험성을 반영하는 점수가 생성된다. 연구를 진행한 청쥔 박사는 “(분석법은) 인간의 언어와 비슷하다”며 “만약 영어 문장에서 어떤 단어를 대체하면, 영어에 익숙한 사람은 대체 단어가 해당 문장의 의미를 변화시킬지 여부를 알 수 있다”고 설명했다. 이같은 AI 예측으로 유전자 변이로 인한 희소질환 연구와 진단이 가속화할 수 있을 것으로 기대된다. 연구진은 이번 연구 결과를 과학저널 ‘사이언스’에 발표했다.
  • 도시계획 짜고 감염병 예측… AI 능력 어디까지 확대될까 [유용하 기자의 사이언스 톡]

    도시계획 짜고 감염병 예측… AI 능력 어디까지 확대될까 [유용하 기자의 사이언스 톡]

    2016년 이세돌 9단과 구글 딥마인드가 개발한 바둑 인공지능(AI) 알파고의 대국 이후 AI에 대한 대중의 관심과 전문가의 연구가 폭발적으로 늘어났습니다. 실제로 다양한 분야에서 뛰어난 능력을 보이는 AI 기술이 속속 등장하고 있습니다. 이런 상황에서 중국 칭화대 연구팀은 도시계획 수립에 있어서 인간 전문가보다 뛰어난 AI를 개발하는 데 성공했다고 13일 밝혔습니다. 이번 연구 결과는 정보통신 분야 국제학술지 ‘네이처 계산 과학’ 9월 12일자에 실렸습니다. 신도시를 개발하거나 구도심지를 재구성할 때 효과적인 공간 계획은 도시의 지속 가능한 발전을 좌우합니다. 토지 이용이나 도로 배치는 가능한 솔루션의 수가 많아 인간 설계자는 여러 차례의 분석과 토론, 재구성을 반복하게 됩니다. 이 때문에 전문가가 보다 개념적이고 창의적 단계에 집중할 시간이 줄어 효율적 공간 계획 수립에 오랜 시간이 걸린다는 지적이 있습니다. 연구팀은 기계학습 기술로 강화돼 토지 사용 및 도로 배치를 생성할 수 있는 AI를 개발했습니다. 이 AI로 주민들이 도보나 자전거로 15분 이내에 필수 서비스 시설에 도달할 수 있는 ‘15분 도시’를 설계하도록 했습니다. 그 결과 인간 전문가가 도시 계획을 짤 때보다 3000배가량 빠른 것으로 확인됐습니다. 놀라운 점은 AI 설계 계획이 인간 도시 계획가가 설계한 것과 비슷한 수준이거나 더 우수하다고 전문가들이 평가했다는 것입니다. 이번 연구로 연구팀은 AI가 인간 도시 계획가의 생산성을 높이고 지속 가능한 도시를 만드는 데 도움을 줄 것이라고 보고 있습니다. 그런가 하면 AI가 현재 지구가 처한 각종 생태학적 문제를 해결하는 데도 도움이 될 수 있다는 분석 결과도 있습니다. 미국 캐리 생태계연구소, IBM 연구센터, 컬럼비아대 러몬·도허티 지구관측소 공동 연구팀은 AI를 생태학에 접목하면 신·변종 감염병의 예측과 생물 다양성 보존, 기후변화 대응 같은 문제를 해결하는 데 큰 도움이 된다고 밝혔습니다. 이런 분석 결과는 미국 국립과학원에서 발행하는 국제 학술지 ‘PNAS’ 9월 12일자에 실렸습니다. 많은 과학자가 AI를 활용해 의미 없어 보이는 빅데이터에서 패턴을 검색하고 새로운 바이러스가 인간을 감염시킬 수 있는지, 어떤 동물이 바이러스를 보유하고 있는지를 예측합니다. AI는 여러 가지 변수가 복잡하게 얽힌 시스템에서 자칫 놓칠 수 있는 연결 고리를 인간 과학자보다 빠르고 정확하게 찾아낼 수 있다는 것입니다. 또 생태계의 회복탄력성이나 적응성 같은 생태학의 개념은 AI의 인공신경망 모드 붕괴 문제를 해결하는 데 영감을 줘 ‘윈윈’할 수 있다고 연구팀은 설명합니다. 빠른 속도로 발전하는 AI 기술을 보면 SF 영화에서처럼 AI가 인류를 지배하는 시대가 올지도 모른다는 걱정이 커지는 것도 사실입니다. 그렇지만 과학사를 보면 새로운 과학기술이 인류에게 어떻게 쓰일지 결정하는 것은 항상 사람이었습니다. 대중이 AI 같은 신기술을 이해해야 하는 이유도 일부 전문가나 정치가들이 오용해 재앙이 되지 않게 통제하기 위함일 것입니다.
  • 4차 산업혁명 기술 특허 출원 급증…AI가 주도

    4차 산업혁명 기술 특허 출원 급증…AI가 주도

    인공지능(AI)과 빅데이터 등 4차 산업혁명 기술 개발이 활발한 것으로 나타났다. 10일 특허청에 따르면 최근 10년(2013~22년)간 국내에 출원된 4차 산업혁명 기술 특허는 총 15만 1218건으로 집계됐다. AI·빅데이터·사물인터넷·디지털헬스케어·바이오마커·지능형로봇·자율주행·3D프린팅 등 8개 기술로 AI가 출원을 주도했다. 2013년 7057건이던 특허출원은 2022년 2만 4341건으로 3.4배 늘었다. 4차 산업혁명 기술의 연평균 특허출원 증가율은 14.7%로 같은기간 전체 특허출원률(1.2%)과 비교하면 12배 높다. 기술분야별로 AI가 전체 27.2%(4만 1118건)를 차지했고 디지털헬스케어(3만 4836건), 자율주행(3만 2759건) 등의 순이다. AI는 2013년 출원이 444건에 불과했으나 2016년 알파고의 등장 이후 급격히 증가해 2019년부터 최다 출원 기술이 됐다. 2021년 단일 기술로는 처음 1만건(1만 345건)을 돌파했다. 4차 산업혁명 기술은 서로 다른 기술분야간 융합이 강화되고 있다. 융합기술 출원은 2013년 128건에서 2022년 2294건으로 연평균 37.8% 성장했다. 특히 2020년부터 인공지능과 디지털헬스케어분야의 융합이 두드러진다. 코로나19 이후 높아진 건강에 대한 관심을 반영한 것으로 2019년 360건에서 2020년 795건, 2021년 1116건, 22년 1089건(미공개 출원 제외)으로 증가세가 뚜렷하다. 전범재 특허청 인공지능빅데이터심사과장은 “급변하는 기술환경 속에서 국가와 기업이 기술 동향을 파악하고 기술개발 전략을 수립하는 데 필요한 신성장 분야 특허정보를 적극 제공할 계획”이라고 밝혔다.
  • [씨줄날줄] AI 로봇 기자회견/박현갑 논설위원

    [씨줄날줄] AI 로봇 기자회견/박현갑 논설위원

    인공지능(AI) 로봇들이 기자회견을 했다. 역사상 처음 있는 일이다. 로봇이 사람보다 더 나은 지도자가 될 수 있다는 충격적 발언도 나왔다. 지난 7일 스위스 제네바에서 유엔 산하의 국제전기통신연합 주최로 열린 ‘선(善)을 위한 인공지능’이라는 행사의 기자회견장에 사람처럼 생긴 9개의 로봇이 모습을 드러냈다. 최신 버전의 생성형 AI를 탑재한 로봇들로 자신의 창조자들이 지켜보는 가운데 AI가 인류에게 미칠 영향 등을 묻는 기자들의 질문에 답했다. 간호사 복장 차림의 의료용 로봇 ‘그레이스’는 일자리 대체 가능성을 묻는 질문에 “나는 인간과 함께 보조와 지원을 제공하며 일자리를 대체하지는 않을 것”이라고 말했다. 그림 로봇 ‘에이다’는 AI 규제 강화를 촉구한 역사학자 유발 하라리의 말을 상기시키며 “일부 종류의 AI는 규제돼야 한다는 게 AI 분야 많은 저명 인사의 의견”이라면서 “나도 동의한다”고 했다. 놀라운 주장도 나왔다. 세계 최초의 로봇 시민인 ‘소피아’는 인공지능이 사람보다 더 나은 결정을 할 수 있느냐는 질문에 “우리는 의사결정을 흐리는 편견이나 감정이 없고 많은 데이터를 빨리 처리할 수 있어 인간 지도자보다 더 높은 수준의 효율성과 효과를 끌어낼 잠재력이 있다”고 답했다. 그러자 옆에 앉아 있던 소피아의 창조자는 놀란 표정을 한 채 “그런 편견은 데이터에서 제외한다. 인간과 AI가 협력할 때 최상의 결정을 하는 것 아니냐”고 되물었고 그는 이에 동의했다. 로봇들은 마네킹 같은 부자연스러운 표정에다 사람의 목소리 인식 불량으로 느린 대답 등 보완할 점도 많았다. 하지만 인류 문명이 AI 등장으로 전환기에 있음은 부인할 수 없는 현실이다. AI는 1950년대 그 개념이 나온 이래 딥러닝의 위력을 알린 2016년 알파고와 지난해 챗GPT에 이르기까지 점차 우리 일상을 파고들고 있다. 이 과정에서 사생활 침해나 오작동에 따른 윤리 문제 등 부작용 우려도 적지 않다. 이를 규제하고 기후위기 대응 등 보다 나은 세상을 만드는 방향으로 활용하는 게 필요하다. 유엔 안전보장이사회는 오는 18일 사상 처음으로 AI를 주제로 한 공개 회의를 갖는다. 인간 친화적이며 안전한 인공지능 시대를 여는 해법 마련을 기대한다.
  • AI와 일하면 우울증, 불면증 심해진다 [달콤한 사이언스]

    AI와 일하면 우울증, 불면증 심해진다 [달콤한 사이언스]

    최근 챗GPT를 중심으로 한 생성 인공지능(AI) 열풍이 불고 있다. 실제로 서점가에서는 챗GPT 활용법에 관한 책들이 넘쳐나고 출판계에서도 하루가 멀다고 관련한 새로운 책들을 찍어내고 있다. 2016년 구글의 바둑 인공지능 알파고가 이세돌 9단과 대국에서 크게 이기면서 인공지능 시대가 다가오면 많은 사람이 직업을 잃게 된다는 예측이 나오는가 하면 단순한 노동은 인공지능이 하고 사람은 좀 더 창의적인 일에 몰두할 수 있게 될 것이라는 반박이 나오기도 했다. 그런데 최근 인공지능과 함께 일하는 사람은 심각한 정신건강 문제에 시달릴 수 있다는 경고가 나왔다. 미국 조지아대, 텍사스 A&M대, 싱가포르 국립싱가포르대, 난양공과대, 영국 카디프대, 대만 국립 중산대 공동 연구팀은 인공지능 시스템과 밀접하게 일하는 직원들은 불면증과 고독감, 퇴근 후 폭음 등으로 이어질 가능성이 높다고 24일 밝혔다. 이번 연구 결과는 심리학 분야 국제학술지 ‘응용심리학 저널’ 6월 12일자에 실렸다. 연구팀은 미국, 대만, 인도네시아, 말레이시아에서 인공지능과 일하는 직원들의 업무 만족도와 정신건강 검사를 실시했다. 대만에서는 인공지능 시스템으로 의료기기, 의약품을 생산하는 기업 엔지니어 166명을 대상으로 3주 동안 설문조사와 건강검진을 했다. 그 결과 실험 참가자 중 인간 동료보다 AI를 이용한 업무가 많은 사람일수록 외로움, 불면증, 퇴근 후 음주 소비가 늘어난다는 사실이 확인됐다. 인도네시아의 한 부동산 관리 회사에서 일하는 부동산 컨설턴트 126명을 대상으로 비슷한 실험을 했다. 이 기업은 AI를 이용해 업무를 처리하는데 실험 참가자를 둘로 나눠 한쪽은 3일 연속으로 AI 업무 시스템을 사용하지 못하도록 하고 나머지 한쪽은 AI와 계속 업무를 하도록 했다. 그 결과 퇴근 후 음주 소비 증가는 관찰되지 않았지만 불면증, 외로움, 불안감 같은 신경 정신과적 문제와는 상관관계가 있는 것으로 나타났다. 미국과 말레이시아의 기술 관련 기업 직원 각각 214명과 294명을 대상으로 한 실험에서도 똑같은 결과를 확인했다. 이 같은 결과에 대해 연구팀은 인공지능이 업무효율을 높여주고 인건비를 낮춰줄 수는 있겠지만 직원들의 신체적, 정신적 건강에는 문제를 일으켜 장기적으로는 좋지 못한 영향을 미칠 수 있다고 설명했다. 이에 연구팀은 팀의 의사 결정과 사회적 네트워크가 중요한 업무는 사람이 담당하고 AI 시스템은 지루하고 반복적인 업무를 처리하도록 업무 시스템을 분리하는 것이 필요하다고 조언했다. 연구를 이끈 폭 만 탕 미국 조지아대 경영대학원 교수(AI 소통학)는 “인공지능 시스템의 급속한 발전은 기존 업무 시스템을 완전히 재편함으로써 많은 이점도 주지만 직원들에게는 정신적, 신체적 문제를 일으킬 가능성도 매우 크다”라며 “사회적 동물인 인간이 사람과의 관계가 아닌 기계나 알고리즘과 일하게 되면 자연적으로 고독감을 느끼게 되고 그에 따른 문제점이 발생하게 된다”라고 말했다.
  • 챗GPT 전성시대에 우리에게 필요한 것은 바로 ‘詩’

    챗GPT 전성시대에 우리에게 필요한 것은 바로 ‘詩’

    지난해 말부터 챗GPT로 대표되는 생성 인공지능(AI) 열풍이 불고 있다. 생성 AI는 2016년 바둑 AI 알파고가 이세돌 9단과 대국에서 승리했을 때보다 더 충격적으로 받아들이는 분위기다. 인공지능이 인간 고유의 특징이라고 하는 창의성, 의식, 일반 지능까지 넘보는 것 아니냐는 우려가 커지는 가운데 이를 활용할 수 있는 방법이나 기술을 알려주는 책들도 쏟아져 나오고 있다. 이럴 때일수록 인공지능 활용 기술보다 더 필요한 것은 시를 읽고 감상할 수 있는 능력이라는 분석이 나왔다. 교양 과학 계간지 ‘한국 스켑틱’ 여름호(34호)는 ‘생성 AI의 시대’라는 주제의 커버스토리에서 챗GPT를 비롯한 생성 AI의 가능성과 한계를 진단하며 이 같은 주장을 내놨다. 인간의 마지막 조건은 예술 창작·감상 능력“지금이야말로 시를 읽고 배워야할 때” 뉴미디어 아티스트이기도 한 이진준 카이스트 문화기술대학원 교수는 ‘과학적 초인과 미학적 바보 사이에서’라는 글에서 “인공지능 시대가 예상치 못할 정도로 빠르게 도래하면서 예술과 창의성 영역에서도 근본적 변화가 나타나고 있다”면서 “인공지능이 예술적 진실을 전달하는 대작의 진정한 참여자가 될지, 문화 산업의 도구로 남을지는 관객이자 창작자인 인간에 달려 있다”라고 지적했다. 이 교수는 인공지능이 예술과 창의성을 재구성하는 시대에 인간을 규정하는 마지막 조건은 예술을 창작하거나 감상하는 능력이 될 것이라고 강조했다. 그래서 지금이야말로 사람들은 다시 ‘시’를 읽고 배워야 할 때라고 조언했다.생성AI가 ‘터미네이터’ 탄생시킬까 우려“생성AI가 강인공지능 의미하지 않아” 챗GPT 같은 생성 AI 등장으로 영화 터미네이터 속 무자비한 인공지능 로봇 같은 강인공지능이 출현을 예고하는 것 아니냐는 우려가 커지고 있다. 이에 과학철학자인 이상욱 한양대 철학과 교수는 현재 우리가 쓰고 있는 강인공지능의 개념에는 특정 문제가 아닌 범용 문제를 풀 수 있는 인공 일반지능, 인간의 지능을 넘는 초지능, 의식을 가진 지능에 대한 개념들이 섞여 있으며 이 세 가지 개념이 서로를 필연적으로 포함하는 것은 아니라고 설명했다. 그렇기 때문에 생성 AI가 여러 가지 문제를 풀 수 있는 인공 일반지능을 구현한다고 하더라도 인간 같은 의식을 가진 강인공지능이 된다는 의미는 아니라고 부연했다. 연구자들은 생성 AI 활용 결과물의 성패를 가르는 것은 사용자의 ‘문장 표현력’이라고 강조하고 있다. 사용자가 관련 지식을 얼마나 알고 그것을 얼마나 디테일하고 적절하게 표현하고 지시하느냐에 따라 생성 AI의 결과가 확연히 달라진다는 것이다. 이 때문에 연구자들은 “생성 AI의 한계는 AI 한계가 아니라 인간의 한계”라며 “생성 AI를 창의적이고 영리하게 사용하기 위해서는 인간은 다시 폭넓은 교양을 공부해야 할 필요가 있다”라고 입을 모았다.
  • [문화마당] 인공지능과 인간의 자리싸움/정승민 ‘일당백’ 유튜버

    [문화마당] 인공지능과 인간의 자리싸움/정승민 ‘일당백’ 유튜버

    회사에서 메시지 작성 업무를 맡고 있는 후배로부터 메일이 왔다. 첨부한 인사말을 보라는 것이다. 잘 썼다고 칭찬했는데 챗GPT 작품이란다. 고작 6개월 전에 세상에 나온 대화형 인공지능(AI)이 일상을 파고드는 속도에 어질어질하다. 에멜무지로 구글의 바드에 AI와 인류의 미래를 물어보니 대답하는 수준이 평균 이상이었다. 기계가 육체노동을 대체하듯이 AI가 정신노동을 잠식한다면 무슨 일이 벌어질까. 외신에 따르면 마케팅과 콘텐츠 분야에서 일자리가 줄어들고 있다. 인간과 대화할 수 있고 글과 그림을 만들어 내는 정도면 창의적 지식 노동을 수행하는 데 충분하단다. 지상에 존재하는 거의 모든 직업에 영향을 줄 수밖에 없다. 이러다 인류는 자신이 낳은 피조물에 파멸당하는 프랑켄슈타인의 전철을 밟을지도 모른다. 챗GPT와 바드는 10여년 전의 유행어인 ‘제4차 산업혁명’에서 어렴풋이 그려 낸 대량 실직의 공포를 구체화하고 있다. 무인공장, 무인가게와 같은 무인화를 예고하는 것이다. 대형마트에 셀프 계산대가 도입되면서 지난 6년간 1만여명의 계산원이 줄어들었다. 뷔페에 가면 로봇이 국수를 삶아 주는 요리사나 다 먹은 접시를 운반하는 종업원 역할을 한다. 개인용 컴퓨터의 보급으로 타자수가 역사 속으로 사라졌듯이 자율주행차량이 본격화되면 운전기사도 화석 취급을 받을 것이다. 가장 불길한 시나리오는 양극화다. 평범한 대중을 직업시장에서 쫓아낼 AI를 관리하는 극소수 엘리트들이 ‘호모데우스’(신적인 인간)가 될지도 모른다. 역사학자 유발 하라리는 기술 발전으로 신적 능력을 가진 초인간이 탄생하면 평범한 사람과의 생물학적 격차가 종을 뛰어넘을 수 있다고 봤다. 아니면 2016년 바둑 5번기 대결에서 입신의 경지라는 이세돌을 완파한 알파고처럼 AI가 만물의 영장에 못 오르리라는 법도 없다. 농사를 지으면서 짐승을 가축으로 부려 먹은 인간이 AI의 가축으로 전락할 가능성도 높다. 그러나 코로나19 사태는 미국 대통령과 대부호도 바이러스를 차단하기가 어렵다는 사실을 세계인에게 깨우쳐 줬다. 아무리 초인간으로 업그레이드한다고 하더라도 대중들과의 완벽한 분리는 불가능하다. 사람과 동물조차 공통감염병을 겪는 지구 환경에서 우주로 나가지 않는 이상 엘리트와 범인이 헤어지기는 불가능하다. 초인간 계급의 문제는 생명과학과 AI가 펼쳐 가는 기술결정주의적 미래에 대한 불안과 우려의 반응으로 받아들이는 것이 현실적이다. 오히려 기술이 종교화되는 시대에서 인간의 지적ㆍ정서적 레벨은 밑바닥을 향해 질주할 공산이 크다. 지금도 ‘대안적 사실’의 환상에 푹 빠진 사람들이 차고 넘치는데, AI가 진화할수록 개인이 갖춰야 할 비판적 사고력은 거꾸로 약화될 전망이다. 그렇지만 인류는 슬기로운 존재, 즉 호모사피엔스다. 자연과 마음의 어두움을 몰아낼 용기를 발휘했기 때문에 장구한 시간을 거쳐서 계몽됐다. 칸트는 계몽인을 자신의 머리에 따르는 존재라고 했다. 타인이나 무엇에 의지하는 것은 이성을 가진 사람이 아니라는 뜻이다. 아무리 AI가 위력적이어도 자기반성과 자기성찰의 의지를 가진 인간이 신과 짐승 사이의 고유한 지위를 박탈당하진 않을 것이다.
  • [기고] 나는 AI에게 설명을 요구한다/김철웅 금융보안원장

    [기고] 나는 AI에게 설명을 요구한다/김철웅 금융보안원장

    17세기 최고의 수학자 페르마는 유명한 난제인 ‘페르마의 마지막 정리’ 하단에 이런 주석을 적어 뒀다. “나는 실로 놀라운 증명법을 발견했다. 하지만 여백이 부족해 적지 않겠다.” 페르마가 설명도 없이 정리만 남기고 세상을 떠난 탓에 장장 360년에 가까운 세월 동안 많은 수학자가 골머리를 앓았다. 요즘 말로 페르마는 학계에 관심을 끌 만한 답만 던지고는 ‘안알랴줌’을 감행한 셈이다. 그런데 곰곰이 생각해 보면 페르마만 그런 것이 아니다. 최근 관심을 독식하는 인공지능(AI)도 ‘안알랴주는 것’은 매한가지다. 올해는 생성형 AI의 해라고 해도 과언이 아니다. 챗GPT의 등장으로 알파고 이후 시들했던 AI 관심이 다시 불붙었다. 문제는 실용화된 AI 대부분이 블랙박스 모형이라는 점이다. 질문에 답은 바로 나오는데, 답을 도출하는 과정은 알 수 없다. AI의 답변에 오류가 있는 경우도 잦다. “조선왕조실록에 기록된 세종대왕 맥북프로 던짐 사건을 알려 줘”라는 질문에 초기 챗GPT는 ‘세종대왕이 훈민정음 창제 중 문서 작성이 중단돼 분노한 나머지 맥북을 던진 사건’이라며 창의적인 오답을 내놨다. AI의 블랙박스 특성과 답변의 오류는 어쩔 수 없이 받아들여야만 하는 걸까. 아니다. 최근 AI 분야 전문가들은 AI의 의사결정 과정을 사람이 이해하기 쉽게 설명하는 기술에서 해결의 실마리를 찾고 있다. 이 기술을 설명 가능한 AI, 즉 XAI(eXplainable AI)라고 한다. 결과값만 출력하는 AI 모델에 그 대답에 대한 설명을 생성하는 인공지능 모델(XAI)을 덧붙여 기존의 블랙박스 특성을 해소하자는 것이다. AI의 특성을 걱정하던 금융권에는 희소식이다. 금융 분야에서는 보통 소비자보다 판매자에게 양질의 정보가 많고, 정보의 비대칭성이 금융 사고나 분쟁 등으로 이어지는 경우가 잦다. XAI는 금융 분야 AI가 직면한 설명 의무에 대한 합리적인 대안이 될 수 있다. AI가 활성화될수록 AI와 관계된 금융소비자 보호 요구는 늘어날 것이고, XAI의 역할도 중요해질 수밖에 없다. 금융소비자는 XAI를 통해 AI가 예측에 실패하거나 위험성이 높은 결정을 내리더라도 설명을 토대로 정보를 해석하고 선택할 수 있다. 금융사는 AI의 설명을 참고해 성능을 개선하고 더욱 고객 친화적인 AI 금융서비스를 제공할 수도 있다. 이에 금융보안원은 AI를 통한 의사결정으로부터 금융소비자를 보호하고 이용자 편익을 높이고자 XAI의 적용 범위, 요건 등을 담은 가이드라인 등을 준비 중이다. 사람은 앞으로도 AI에게 끊임없이 질문할 것이다. AI의 답이 항상 옳을 수는 없다. 옳은 답은 활용하고 그른 답은 개선하면 된다. 하지만 사람이 AI의 대답으로 의사결정을 한다면 결정에 대한 설명이 필요하다. 미래는 검색과 클릭의 인터넷 시대가 아닌 질문과 소통의 AI 시대다. 신뢰할 수 있는 AI 시대를 열어 가기 위해 나는 AI에게 설명을 요구한다.
  • “제조현장 고민, 챗GPT에 물을 수 있게… ‘AI로컬 인재’ 육성 필요”

    “제조현장 고민, 챗GPT에 물을 수 있게… ‘AI로컬 인재’ 육성 필요”

    생성형 인공지능(AI) 유행을 몰고 온 ‘챗GPT’가 지난해 11월 30일 공개된 뒤 산업계 지각변동이 빠르게 일어나고 있다. 챗GPT를 활용한 신사업 전략을 고민하거나 기존 업무에 챗GPT를 어떻게 접목시킬 수 있는지 고민하던 단계를 지나 ‘챗GPT와 함께할 결심’이 사회 곳곳으로 빠르게 퍼져 나가고 있다. 정부 부처와 기업들은 정보유출 가능성을 재며 챗GPT의 도입 여부를 판단하기 시작했다. 일부에서는 사실과 다른 내용들을 그럴듯하게 보여 주는 챗GPT의 거짓말쟁이 같은 면모 때문에 챗GPT 도입 신중론이 제기되기도 했다. 챗GPT로 인해 사라질 직업과 새로 생길 직업에 대한 탐색도 활발하다. 정부와 기업은 이처럼 빠른 기술변화와 동시간대에 정책을 개발하고 관련 전략을 시행해야 하는 숙명에 처하게 되었다. 서울신문은 이달 초 ‘AI와 중소벤처기업은 상생할 수 있을까’라는 제목으로 주최한 좌담회를 통해 초거대 AI 시대에 맞는 정책방향을 탐색했다. 네이버와 NH투자증권이 도움을 준 이번 좌담회는 홍희경 서울신문 세종취재본부 부장이 진행하고 김우순 중소벤처기업부 기술혁신정책관, 이삼열 연세대 행정학과 교수, 노민선 중소벤처기업연구원 연구위원, 최홍섭 ㈜맨드언맨드 대표가 다양한 관점에서 의견을 제시했다.-챗GPT 열풍이 변화를 향한 흥분과 공포를 동시에 선사하고 있는데. 김우순 정책관 이세돌 9단과 알파고의 바둑 대결이 인공지능(AI)에 대한 관심을 확장시켰다면, 최근 챗GPT 열풍으로 AI를 활용하고 소비해야겠다는 마음의 준비가 이뤄지고 있다. 이것은 생성형 AI의 확산과 활용을 위한 좋은 기회가 될 것이다. 스타트업과 중소기업이 챗GPT와 상생하며 새로운 사업기회를 찾는 일도 많아질 것이다. 올해부터 ‘초격차 스타트업 1000+ 프로젝트’를 추진 중인 중기부는 딥테크 스타트업 150개사를 선정해 기업당 총 11억원의 자금을 직접 지원하는 등 지원한다. 중소기업이 관련 생태계에 빠르게 적응할 것으로 본다. 최근 스마트공장 육성 과정에서 중소기업의 기술 적응력을 확인한 바가 있어서다. 처음에는 “스마트공장을 하면 업무 효율화가 되느냐”고 물으며 효율에만 관심을 두던 제조기업 사장님들이었는데, 몇 년이 지난 뒤에는 “우리 공장의 데이터를 어떻게 활용할 수 있느냐”라거나 “데이터를 활용해 협업할 새로운 기회가 있겠느냐”는 말로 질문이 바뀌는 모습을 봤다. 최홍섭 대표 한국에선 초거대 AI라고 부르지만 미국에선 챗GPT 등을 ‘파운데이션 모델’(Foundation model)이라고 부른다. 번역, 데이터 분석, 요약 등 한 분야에서 뾰족하게 잘하는 AI를 만드는 게 기존 AI 기술이었다면 파운데이션 모델은 사람처럼 멀티태스킹을 잘하는 AI라고 볼 수 있다. 문서를 번역해서 요약하고, 그에 기반해 새롭게 창작해 내는 일까지 하는 것이다. 챗GPT의 또 다른 특징은 쉽게 사용할 수 있는 범용 모델이라는 점이다. 코딩을 해야 AI에 접근할 수 있는 게 아니고 챗GPT는 일상의 언어로 쉽게 활용할 수 있다. 사실 사용자 입장에서는 내가 어떤 AI를 쓰는지가 아니라 얼마나 편하게 쓸 수 있는지가 중요한데 그런 면에서 챗GPT가 기술적 특이점(싱귤래리티)이 있다.-챗GPT 등장 이후 ‘내 직업의 미래’를 걱정하는 이들 또한 늘고 있다. 이삼열 교수 챗GPT를 통해 스타트업과 벤처캐피털(VC)은 새로운 기회를 볼 것이다. 정책을 구상하는 정부 입장에선 기회와 함께 위협을 봐야 할 것이다. 슘페터가 말했듯 혁신은 ‘창조적 파괴’를 동반하기 때문이다. 어떤 파괴가 일어날 것인가에 대해서도 구체적인 관찰과 고민이 필요하다. 예를 들어 웹툰을 창작할 때 웹툰의 배경을 그리는 수많은 사람들이 있다. 그런데 AI가 어느 날 웹툰의 배경을 그려 낸다면 웹툰 플랫폼 입장에서는 제작 시간과 인건비를 줄이는 엄청난 기술 혁신이 될 것이다. 그러나 정책을 만드는 입장에서는 배경을 그리던 기존 인력의 고용 전환 문제부터 AI로 인해 제작량이 급증할 경우 변하게 될 웹툰 생태계 전반을 모두 고민해야 한다. 챗GPT가 상징하는 변화는 웹툰뿐 아니라 각종 산업에서의 공급 생태계, 밸류체인(가치사슬)을 뒤흔드는 차원일 것임을 인식해야 한다. 노민선 연구위원 챗GPT로 인한 변화 중 가장 주목받는 게 기존 산업과 인력의 재편 가능성에 관한 것인데, 의외의 분야에서 AI 적용이 빠르게 이루어질 수 있다. 제조업 분야가 그렇다. 제조업은 지금까지 청년층이 가기 쉬운 일자리가 아니라고 분류됐지만 AI가 접목되면 이 인식이 바뀔 여지가 있다. 중소 제조업의 데이터를 발굴하고 활용해 중소기업이 혁신의 기회로 삼을 수 있다. 중소기업 정책 측면에서도 AI를 활용할 여지가 많다. 단적으로 700만개가 넘는 중소기업 분야 정책을 짜다 보면 사각지대가 불가피하게 나온다. 빅데이터 분석을 통해 이런 사각지대를 줄이고, 기업 현장에 맞는 정책을 짜는 데 도움을 받을 수 있다. 노 연구위원 제조업 분야에서 AI를 활용한 혁신에 대해 이야기했는데, 사실 이를 위해선 중소기업에 AI 활용 인력이 있어야 한다. 중소기업 현장의 업무를 알면서 동시에 AI에 대한 기본적인 개념을 인식하며 관련 데이터를 활용할 수 있는 현장 인력, 이른바 ‘AI 로컬 인재’ 육성이 필요하다. -정부에선 AI 인재를 양성해도 모두 미국 등지로 유출되는 게 아닌지 고민이다. 최 대표 한국에서 AI 관련 사업을 하다 보니 사실 답답할 때가 있다. 특히 같은 사업 아이템이 미국에서는 최소 10배의 가치를 인정받는 걸 보면 그렇다. 인도의 정보기술(IT) 인재들이 미국 실리콘밸리로 쏠리는 게 아마 이런 이유에서일 것이다. 인도와 비슷한 나라가 캐나다이다. 캐나다는 AI 인력 양성을 많이 하는 국가로 손꼽히지만, 막상 대학을 졸업한 뒤 인재들은 캐나다에서 일자리를 찾지 못하고 미국으로 간다. 인력 양성이 제대로 되려면 학교에서 가르치는 일뿐 아니라 배운 것을 단계적으로 응용하고 실행할 수 있는 현장이 필요하다. 이 교수 과학기술 정책은 국가 단위로 펴지만, 이를 활용하는 기업들과 인재들은 국경을 넘어선 지 오래다. 오픈AI, 구글, 마이크로소프트(MS)와 같은 기업들은 스스로를 미국 회사가 아닌 글로벌 기업으로 인식할 것이다. AI 인재들 역시 자신이 두 발을 갖고 (어디든 갈 수) 있음을 알고 있을 것이다. 최첨단 기술 분야의 국내 박사 인재들이 미국에서 일자리를 얻는 추세 등을 보면 가치사슬의 정점에 있는 국가로 인재가 쏠리는 것은 어쩔 수 없는 일로 보인다. 그러나 역으로 시장으로서의 아시아, 테스트베드(시험장)로서 한국을 주목하는 인재 또한 많다. -AI 활용장으로서 한국이 지닌 특성이 있을까. 김 정책관 한국에 맞는 AI 인재 양성을 위해 정부는 특히 한국의 강점인 제조업을 주목하고 있다. 제조업에 AI가 접목할 수 있도록 정책적 노력을 펴고 있다. AI가 제조업에서 활용되려면 AI 기술뿐 아니라 제조 현장에서의 필요 또한 잘 알고 있어야 한다. 챗GPT에게 무엇을 물을지, AI가 찾은 개선책에 어떤 보완이 필요한지, 개선 이후 AI를 새롭게 어떻게 활용할지 등 AI에게 할 적절한 질문을 찾을 현장 전문가 육성이 필요하다. 한편으로 생산 과정에서 각종 데이터가 축적되는 제조 기업과 데이터를 분석해 새로운 사업 아이템을 발굴할 수 있는 기술 스타트업 간 교류가 활발해질 필요가 있다. 과거 플라스틱 사출 기업의 데이터로 AI 학습을 시킨 뒤 이를 콘택트렌즈 생산에 적용하도록 지원한 정책 사례도 있다. 노 연구위원 AI에게 질문하는 능력이 현장에서 필요하다면, 향후 AI 도입이 시급한 분야를 알아채는 일 또한 중요하다. 예를 들어 노인돌봄 문제를 해결하는 데 AI가 활용될 수 있을 것이다. 지금은 자녀돌봄의 문제가 사회적인 관심을 받고 있지만, 고령화가 가속화될수록 노인돌봄의 중요성이 커질 것이다. 챗GPT로 대표되는 기술의 진화가 산업 현장뿐 아니라 사회문제 해결에도 활용될 수 있음을 잊지 말아야겠다.
  • 맹신하지 마라… AI를 지배하라

    맹신하지 마라… AI를 지배하라

    2016년은 인류를 대표한 이세돌이 인공지능(AI) 알파고와 다섯 판의 바둑 대결을 벌여 1승을 거둔 해다. 당시 대부분의 사람은 인류가 AI를 상대로 거둔 유일한 1승으로 남을 것이란 암울한 결론에 동의했고, 실제 그리되고 있다. 바로 그해 구글은 알파고와 별개로 자사 데이터 센터의 냉각 장치 조절용 AI를 개발했다. 이 AI는 세계 최고 엔지니어들이 거푸 실패한 과제를 단숨에 해결했다. 이전보다 무려 40%나 절감된 전기료를 선물한 것이다. 앞으로도 인류는 AI와 이 같은 아름다운 협주를 계속할 수 있을까. 그러려면 인류는 뭘 준비해야 할까.●‘AI 네이티브 세대’ 등장은 필연적 ‘AI 이후의 세계’는 세계 질서의 대전환이 확실시되는 AI 시대에 대한 통찰을 담은 책이다. 헨리 키신저 전 미국 국무장관, 에릭 슈밋 전 구글 최고경영자, 대니얼 허튼로커 미 매사추세츠공대(MIT) 슈워츠먼컴퓨팅대 초대 학장 등 정치·경제·과학 분야를 대표하는 석학 3명이 AI를 주제로 정기적으로 나눈 4년간의 대화를 정리했다. 지금은 GPT(Generative Pre-trained Transformer)의 시대다. 미국 기업 오픈AI가 챗GPT를 출시하면서 본격 상용화의 시대를 열었다. 달리(DALL·E), 스태빌리티AI 등도 잇달아 선을 보였다. 생성형 AI가 천문학적 규모의 데이터를 반복 학습한 뒤 자신의 의사결정이 담긴 결과물을 만들어 내는 경지에 이르렀다는 의미다. 얼굴이나 차선 등 세상에 이미 있던 것을 인식하는 인식형 AI에서 획기적 도약이 이뤄진 거다. 앞으로 어떤 도약이 얼마의 주기로 일어날지는 누구도 예측할 수 없다.생성형 AI는 이미 우리 곁에 바짝 다가와 있다. MIT가 개발한 항생제 ‘할리신’이 그 예다. MIT는 AI에게 기존 항생제와 다른 무독성 분자를 찾으라는 과제를 줬고, AI는 이를 충실히 수행해 단 하나의 분자를 찾았다. 인간이라면 엄두도 내지 못 냈을 프로젝트를 AI는 저비용으로 완수해 낸 것이다. 의학뿐 아니다. 생성형 AI의 활용은 사회·정치·외교·기술·군사 등 전방위적으로 확산하고 있다. 문제는 모든 사회와 국가가 진보한 AI의 혜택을 공평하게 받을 수 없다는 점이다. 사회 구성원은 물론 국가 간에도 현격한 차이가 생길 것이고, 이는 심각한 균열과 대립을 불러올 것이다. AI를 당연한 것으로 여길 ‘AI 네이티브 세대’의 등장도 필연적이다. 이런 혁명적 변화에 대응하려면 기존의 철학과 사회제도만으로는 역부족이다.●강력한 도덕·전략적 지도체계 절실 저자들은 강력한 도덕적·전략적 지도체계 확립을 주문했다. 기계를 주체가 아닌 객체로 남게 해 인간성을 보존하고, AI의 결과물에 당당히 이의를 제기하는 능력을 길러야 한다고도 했다. 저자들은 “AI 개발자는 많아졌어도 사회적·법적·철학적·정신적·윤리적 측면에서 AI가 인간에게 끼칠 영향을 탐구하는 사람은 위험할 정도로 소수에 불과하다”며 “당장 모든 세계 시민이 AI의 효용과 한계를 합의하라”고 촉구했다. 알파고, 할리신의 사례에서 보듯 AI에게 목표와 지향점을 정의해 준 건 인간이다. 그렇다면 기회는 있다. 저자들은 “‘아직’ 인간이 미래의 주도권을 쥐고 있다”며 “우리의 가치관에 부합하는 미래를 (우리가) 조성해야 한다”고 역설했다.
  • 공존, 발전 다 좋은데, 통제되지 않는다면… AI는 인간에게 흉기[이순녀의 이사람]

    공존, 발전 다 좋은데, 통제되지 않는다면… AI는 인간에게 흉기[이순녀의 이사람]

    ‘챗GPT 시대’라고 해도 과언이 아닐 정도로 일상생활 곳곳에서 챗GPT가 위력을 발휘하고 있다. 미국 스타트업 오픈AI가 지난해 11월 말 세상에 내놓은 지 5개월 만의 일이다. 대화형 인공지능(AI) 챗봇인 챗GPT는 논문을 작성하고 시와 소설을 창작하며 그림을 그릴 뿐 아니라 코딩 등 프로그래밍도 가능한 고도화된 AI다. 누구든 챗GPT를 활용해 어려운 학습 과제를 해결하고 복잡한 사업 계획서를 완성하며 맞춤형 여행 일정을 짤 수 있다. 이는 시작에 불과할 뿐 지금까지와는 차원이 다른 AI가 인류에게 새로운 미래를 열어 줄 가능성은 무궁무진하다. 다른 한편으론 그럴듯한 거짓말을 천연덕스럽게 늘어놓는 ‘할루시네이션’(환각) 현상, 잘못된 정보에 기반한 편견과 차별 확산, 잠재적인 여론 조작 등 AI가 인간에게 치명적인 해악을 끼칠 여지 또한 무수히 많다. 챗GPT 같은 초거대 AI가 일자리를 빼앗고 일상을 통제하는 디스토피아의 도래를 앞당길 수도 있다. 1세대 소프트웨어 개발자이자 AI 전문가인 김진형(74) 카이스트 명예교수는 “챗GPT의 능력과 한계를 잘 알고 사용해야 한다”면서 “인간과 AI가 상호 보완적으로 팀을 이뤄 일하는 것이 바람직하다”고 말했다. “AI 기술의 지속적인 발전을 촉진하되 통제를 놓쳐서는 안 된다”는 조언도 덧붙였다. 1970~1980년대 미국 캘리포니아주립대(UCLA)에서 컴퓨터과학 박사 학위를 받고 휴스연구소에서 AI를 연구한 그는 1985년 카이스트 전산학과 교수로 부임해 인공지능실 등을 이끌며 수많은 인재를 양성했다. 반세기 가까이 AI 연구에 매진해 온 김 교수를 만나 챗GPT 시대의 의미와 명암에 대해 물었다.-역대 AI 기술과 비교해 챗GPT의 충격이 엄청나다. “1997년 IBM의 딥블루가 체스 세계 챔피언을 이긴 뒤 AI 연구가 활발해졌고, 2010년 딥러닝이 나오면서 기술이 점진적으로 발전했다. 2011년 미국 유명 퀴즈쇼 ‘제퍼디’에서 IBM의 왓슨이 우승한 사건은 충격적이었지만 국내에선 상대적으로 관심이 덜했다. 그러다 2016년 프로 바둑기사 이세돌과의 대국에서 알파고가 승리하면서 AI에 대한 대중적 호기심이 증폭됐다. 알파고는 개인이 직접 경험하기 쉽지 않지만 챗GPT는 누구나 쉽게 사용할 수 있어 훨씬 혁명적인 변화로 다가오는 것이다.” -챗GPT의 장단점을 정확히 알아야 한다고 했는데 잘하는 일부터 설명한다면. “자연어로 대화하는 능력, 문서 요약과 질의응답, 문장 완성 등에서 수행력이 탁월하다. 2018년 GPT1이 나온 이후 챗GPT에 적용된 GPT3.5까지 획기적인 기술 개선이 있었다. 초기 GPT가 ‘아무 말 대잔치’ 수준이었던 데 비해 챗GPT는 대화 내용을 기억하고 문제 해결 능력을 갖추도록 추가 학습이 이뤄졌다. 딥러닝을 통해 사람이 좋아하는 대화를 연습한 것이다. 이렇게 배울 수 있는 능력 자체가 충격적이다. 창의적 글쓰기나 영어 문장 교정, 공공 문서 작성 등에 활용하면 최적의 성과를 거둘 수 있을 것이다.” -단점과 한계는. “사람들은 흔히 AI의 능력을 과대평가하는 경향이 있다. 하나를 잘하면 다른 것도 잘할 것이라고 생각한다. 인간이 하나를 배우면 열을 아는 것은 일반화 능력이 우수해서다. AI는 얼핏 일반화 능력이 있는 것처럼 보이지만 실은 그렇지 않다. 방대한 문장을 학습한 덕에 단어 간 연관 관계를 따져 유창한 말을 만들어 낼 수 있으나 정보의 진실성까지 보장하는 것은 아니다. 챗GPT가 스스로 만든 지식에 과도한 신뢰를 보내는 환각 현상은 매우 위험한 단점이다. 데이터에 내재한 편견과 차별이 알고리즘과 AI 시스템으로 전이돼 불공정한 결과를 일으키는 점도 한계다.” -챗GPT를 구체적으로 어떻게 활용해야 할까. “우선 능력과 한계를 잘 이해해야 한다. 사후 검증할 수 있고 위험 요소가 적을 때 사용하는 것이 바람직하다. 가령 글쓰기나 그림, 작곡 등에선 활용도가 매우 높고 의료 분야에서도 의사의 진단을 보조하는 시스템으로 이용할 수 있다. 반면 자율주행 자동차나 자율형 살상 무기 활용은 아직까진 위험하다. 기본적으로 AI는 인간을 위한 도구다. 사람과 AI가 한 팀으로 일하는 것이 바람직하다. 자동화할 수 있는 업무는 AI가 수행하고 인간은 소통과 공감을 바탕으로 종합적인 판단이 필요한 업무에 집중하는 협업이 중요하다.” -개인정보 보호 우려와 윤리적 문제 등으로 AI 규제법 제정이 논의되고 있는데. “연구자 입장에선 과도한 걱정이 아닌가 싶다. 섣부른 규제는 AI 기술 발전에 필요한 연구까지 저해할 수 있다. 폐해와 부작용 등에 대해 충분히 분석하고 이를 극복하기 위한 연구를 활성화하는 것이 바람직하다.” -AI로 인해 일자리에 대변혁이 일어날 것이란 전망이 많다. “역사적으로 봐도 새 기술이 등장하면 사라지는 일자리가 있고 새롭게 부상하는 일자리가 있기 마련이다. 변화에 맞춰 훈련받고 적응하는 과정이 필요하다. 의사가 AI 때문에 일자리를 잃는 것이 아니라 AI를 잘 아는 의사와의 경쟁에서 밀려 실직하는 것이다. AI 시대에 맞춘 보편적 시민교육이 중요한 이유다.” -AI 시대의 시민교육은 어떤 것인가. “AI가 가져오는 변화에 적응할 수 있도록 컴퓨터과학과 AI에 대한 공교육을 충분히 제공해야 한다. 엔지니어가 자동차를 만들지만 운전은 아무나 할 수 있어야 하는 것과 같은 이치다. 세계 각 나라는 초중고 교육에서 컴퓨팅을 정규과목으로 비중 있게 다루고 있다. 우리나라는 2018년 교육과정 개편에서 정보 과목을 초등학교와 중학교 필수과목으로 의무화했지만 상대적으로 소홀한 편이다. 컴퓨팅을 가르칠 수 있는 전공 교사 양성도 시급한 문제다. 무엇보다 암기 위주의 교육에서 벗어나 비판적 사고력, 창의력, 소통 능력, 협동 능력을 배양하는 방향으로 교육 시스템이 바뀌어야 한다.” -AI 기술 진화의 바람직한 지향점은. “AI는 인간에게 도움을 주는 이기(利器)도 될 수 있고 흉기(凶器)도 될 수 있다. 사용하기에 달렸다. 인간을 위한 기술로 언제까지나 남아 있도록 노력해야 한다. 특히 기후변화 대응, 전염병 예방, 재난 방지 등 글로벌 난제 해결과 공익적 목적에 적극 활용하는 방안을 모색해야 한다. 그러기 위해선 AI 기술에 대한 통제를 놓쳐선 안 되며 윤리적 사용에 대한 깊은 성찰도 요구된다.” -1세대 소프트웨어 개발자이자 AI 연구자다. 컴퓨터도 흔치 않은 때였을 텐데 어떻게 전공하게 됐나. “대학 졸업 후 군에 다녀와서 우연히 컴퓨터를 접했는데 너무 재밌었다. 한국과학기술연구원(KIST)에서 개발자를 뽑는다길래 초창기 멤버로 들어갔다가 공부를 더 하고 싶어 미국 유학을 떠났다. 1981년에 박사 학위를 받고 휴스 인공지능 연구센터에서 4년을 근무하다 귀국했다. 1985년 카이스트 전산학과에 인공지능연구실을 설립하며 국내에서도 AI 연구를 시작했다. 1990년 인공지능연구센터가 설립돼 큰 연구비를 지원받아 휴머노이드 로봇, 문서 인식, 자연어 처리 등의 연구에 집중했다. 지금 전국의 인공지능대학원 등에서 연구를 이끄는 주역 중 상당수가 당시 내 제자들이다. 이후 알파고 등장을 계기로 2016년 대기업 7곳이 공동 투자하고 정부가 연구비를 지원해 지능형 챗봇을 연구하는 주식회사 형태의 인공지능연구원이 출범했지만 정치 상황이 혼란해 연구비 지원이 무산됐다. 개방형 AI 연구를 지향하는 ‘한국형 오픈AI’였던 셈인데 연구를 시작도 하지 못한 채 끝나 아쉽다.” ●김진형 명예교수는 ▲1949년생 ▲서울대 공학 학사 ▲미 UCLA 시스템공학 석사·전산학 박사 ▲카이스트 전산학과 교수, 인공지능센터 소장, 소프트웨어정책연구센터 소장 ▲ 한국정보과학회장, 공공데이터전략위원회 초대 위원장, 인공지능연구원 초대원장
위로