찾아보고 싶은 뉴스가 있다면, 검색
검색
최근검색어
  • 환각 현상
    2026-04-12
    검색기록 지우기
  • 세계랭킹
    2026-04-12
    검색기록 지우기
  • 재정자립
    2026-04-12
    검색기록 지우기
  • 원전 협력
    2026-04-12
    검색기록 지우기
  • 서울시장
    2026-04-12
    검색기록 지우기
저장된 검색어가 없습니다.
검색어 저장 기능이 꺼져 있습니다.
검색어 저장 끄기
전체삭제
170
  • “너는 생각해라, 고로 AI다”

    “너는 생각해라, 고로 AI다”

    “이제는 나 말고 네가 대신 생각해라. 그런데 쟤가 생각하면, 그러니까 인공지능이 생각하면 나는 이제 무엇을 할 수 있단 말인가. 데카르트의 명제가 더이상 불가능하다면, 이제 나는 누구인가.” 소설가 서이제는 챗GPT로 대표되는 생성형 인공지능을 상대하며 이렇게 탄식했다. 문예 전문 반(半)연간지 ‘쓺-문학의 이름으로’(문학실험실) 2024년 상권(18호)은 이렇듯 문학 평론가들과 소설가, 시인들이 생각하는 인공지능과 인간의 관계에 대한 사유를 모아 ‘인공지능 시대의 인간, 그 개체성과 집단성’이란 주제의 특집을 다뤘다. 인공지능은 명령어에 따라 신속하고 정확하게 답을 제시하지만 명령어 너머나 그 틈을 보지 않는다. 세계를 패턴화한 인공지능은 세상에 없는 것도 만들어 내는 능력인 할루시네이션으로 명령을 충실히 따른다. 환각, 환영이라는 의미의 할루시네이션은 인공지능이 만들어 내는 일종의 오류로 잘못된 답변을 생성해 내는 것을 말한다. 이는 물음 자체에 어떤 의문도 갖지 않고 회의하지 않기 때문에 생기는 현상이다.‘인공지능 앞에 서면 나는 왜 이리 작아지는가’라는 글에서 서이제는 인공지능이 인간보다 빠른 결과를 산출해 내는 것은 분명하다고 말한다. 인공지능이 시와 소설을 쓰고 영화, 음악도 만들고 그림까지 만들어 내는 시대가 됐다. 인공지능이 만든 것과 인간이 만든 것을 구별하기도 어려운 상황이 됐다고 한탄한다. 그렇지만 서이제는 “어디까지나 완성된 작품만 봤을 때 그렇다”고 지적하며 결과보다 과정에 집중함으로써 인간 작가의 개성과 고유성을 발견할 수 있다고 말한다. 그런가 하면 소설가 정지돈은 ‘마음 기계 마음’이라는 글에서 우리가 관심을 가져야 할 부분은 인공지능이 실제로 어떻게 작동하는가이기보다 그것이 사람의 마음에 스며들어 세계를 바꿔 놓는 과정이라고 강조한다. 그는 인공지능 윤리에 관한 지금까지의 질문을 바꿔야 한다고도 주장한다. 그 질문은 “인공지능이 우리처럼 생각하는 게 아니라 우리가 인공지능처럼 생각하는 것 아닐까”이다. 정지돈은 “인간은 늘 자신이 창조한 도구와 결합하고 도구에 의해 변화된 존재”였기 때문에 알고리즘이 인간의 편견을 반영하는 것처럼 인간도 알고리즘의 선택을 내면화하고 있지 않나를 물어야 한다고 말하는 것이다. ‘편집의 글’에서도 이런 인공지능의 문제는 결국 인간의 문제이며 언어의 문제라고 지적한다. 상투적이고 도구적인 언어가 세상을 지배하는 한 깔끔하고 매끈한 언어로 점철된 그럴듯한 폭력의 세상을 벗어나지 못하게 될 것이라고 경고하는 것이다.
  • [열린세상] 글로벌 중추국가 되려면 지역학에 투자하라

    [열린세상] 글로벌 중추국가 되려면 지역학에 투자하라

    엊그제 제3차 민주주의 정상회의가 서울에서 개최됐다. 우리 정부의 글로벌 중추국가 목표를 향한 노력의 일환으로 본다. 참여 정상들은 빠르게 확산 중인 인공지능(AI)의 혜택, 글로벌 사우스와의 포용적 협력과 함께 ‘책임 있는 AI 활용’을 강조했다. 인류의 삶을 더욱 윤택하고 편리하게 하며 서로를 가깝게 하는 기술은 마땅히 최대한 활용돼야 한다. 다만 지난 세 차례의 산업혁명 과정에서 드러났듯이 완전무결한 기술은 없다. 오히려 무책임한 마구잡이 AI 활용, AI 환각(hallucination)과 만능주의는 글로벌 중추국가 목표에 치명적일 수 있다. 글로벌 중추국가는 ‘국제정치 질서에서 국가 간 세력 분배와 안정성에 변화를 야기할 수 있는 국가’로 정의된다. 글로벌 중추국가의 외교 지평은 전 세계다. 일부 마음 맞는 국가와의 외교를 지향하는 것이 아니다. 상황에 따라 적절하게 대응하는 유연성이 필요하다. 따라서 글로벌 중추국가의 전제조건은 각 지역과 국가 그리고 글로벌 거버넌스 체제에 대한 충분한 이해와 정세 판단 및 전략 수립 능력이다. 친소 관계를 떠나 국익을 위한 철저한 계산에 기반하면서 세계에도 도움이 되는 역할을 해야 한다. 그러려면 상대국을 면밀하게 파악하고 있어야 한다. 이를 뒷받침하는 중요한 국가적 공공재가 지역학 연구다. 돈 되는 학과에 몰리는 한국적 쏠림 현상은 소위 돈이 안 되는 지역학 연구의 생명줄을 위협하고 있다. 글로벌 중추국가 목표 달성의 필요조건마저 충족하기 어려운 환경으로 내몰리고 있다. 심지어는 AI를 통해 전 세계 지역과 국가에 대한 정보 접근이 가능하므로 AI 활용을 늘리는 대신 지역학과 연구자에 대한 투자는 축소할 수 있다는 집단적 순진함과 우둔함을 보이기도 한다. 편견 없는 중립적 정보가 입력됐다는 전제하에 AI는 광범위한 정보 제공의 장점이 있다. 그러나 전체론적 접근법과 전략적 사고는 AI의 영역이 아니다. 그건 끊임없는 교류와 접촉을 통해 인지하고 사고하며 판단하는 인간의 영역이다. 코로나 기간 중 온라인 학습의 결과로 상당한 학습 결손(learning loss)과 문해력 저하가 발생했다는 점에서도 드러났듯이 AI 맹신과 만능주의는 사고의 획일화를 초래하고 다양성과 창의력 그리고 전략적 사고를 저해하는 지름길이다. 국내 대학의 지역학에 대한 투자와 관심은 명맥 유지 수준이다. 언어의 강점이 있는 한국외국어대 등 일부 대학에서 인도, 러시아, 아세안, 중앙아시아, 오세아니아, 중남미 등에 관한 겉핥기식 연구를 이어 가고 있다. 그나마도 학과 통폐합 등의 이유로 줄고 있다. 따라서 우리와 가장 가깝다는 미국 전문가조차 찾기 힘들다는 하소연은 어색할 일이 아니다. 우크라이나 전쟁이 발발했을 때 국내에서 신뢰할 만한 러시아 전문가도 우크라이나 전문가도 찾기 어려웠다. 부적절한 투자의 결과로 야기되는 국가적 손실이고 약점이다. 글로벌 중추국가가 되려면 지역학 연구에 투자해야 한다. 지역 전문가들과 정책 수립 및 이행자들 사이의 공식 메커니즘을 통한 파트너십 형성이 중요하다. 필요에 따라 즉석에서 회동하는 임시접근법(ad-hoc approach)은 지역학의 깊이와 두터운 연구자층 육성에 도움이 되지 않는다. 미국의 대학과 과거 패권국이었던 국가들의 고등교육기관에서 여전히 뿌리 깊고 꾸준한 지역학 투자가 이뤄지는 이유를 곱씹어 볼 필요가 있다. 지역학과 연구자에 대한 투자가 아깝게 느껴진다면 글로벌 중추국가 목표의 신속한 폐기가 순리에 맞다. 글로벌 중추국가 추진이 그럴듯한 홍보성 구호에 그치지 않고 국정 목표로 달성하려는 비전이라면 뚜렷한 타깃과 이행계획을 마련하고 국내외 다양한 차원에서 지속적인 연구와 논의가 이뤄질 수 있는 메커니즘을 확보해야 한다. 그 중심에는 지역학 연구가 자리한다. 송경진 전 세계경제연구원장
  • [책꽂이]

    [책꽂이]

    경쟁 교육은 야만이다(김누리 지음, 해냄) 베스트셀러 ‘우리의 불행은 당연하지 않습니다’로 뿌리 깊은 한국형 불행과 한국 사회의 민낯을 드러낸 김누리 중앙대 독문과 교수가 이번에는 우울한 나라 대한민국의 원인을 극단적인 경쟁 교육으로 지목했다. 한국 학생들은 12년 동안 교실에서 학습 노동에 시달리며 소수의 승자와 다수의 패자로 나뉜 채 열등감과 모멸감을 내면화한다고 지적한다. 김 교수는 사회개혁이 성공하기 위한 전제조건으로 교육개혁을 이야기하며 교육개혁의 시작은 대학 입학시험 폐지라는 과감한 주장을 하고 있다. 336쪽, 1만 8500원.뇌의 흑역사(마크 딩먼 지음, 이은정 옮김, 부키) 미국 펜실베이니아주립대 생물행동보건학과 교수인 저자는 뇌과학 측면에서 ‘정상성’이 무엇인가에 대해 질문을 던진다. 인간의 몸에서 겨우 1.3㎏에 불과한 뇌에 사소한 오류만 생기더라도 현재와는 전혀 다른 삶을 살게 된다는 것을 이 책에서 생생하게 보여 준다. 코타르증후군, 저장강박증, 외계인손증후군, 시간실인증, 사별환각 등 18세기부터 최근까지 기록된 비교적 흔한 현상부터 기묘한 사례를 통해 여전히 베일에 싸여 있는 신체 기관 ‘뇌’에 대한 이해를 한층 높여 준다. 324쪽, 1만 9000원.취할 준비(박준하 지음, 위즈덤하우스) ‘회사에서 술을 제일 못 마시니 일만 할 것 같다’는 고참의 말에 덜컥 술 취재에 나섰다가 술 전문 기자이자 전통주 소믈리에로 활약하게 된 저자가 써 내려간 ‘우리 술 이야기’다. 기존에 나온 우리 술 이야기들이 답사기나 인문서에 머물렀다면 이 책은 세계가 주목하는 한국 술의 과거와 현재, 미래를 말하고 우리 술에 열광하는 사람들의 심리까지 진단하고 있다. 책 곳곳에 ‘우리 술 상식’ 코너를 넣어 우리 술 여행지, 우리 술과 어울리는 안주 등도 꼼꼼히 알려 준다. 304쪽, 1만 9500원.Working with Koreans(박성민·홍희경·김성탁 지음, 박영스토리) 외국인 노동자 문제는 한국 노동시장에 이미 큰 영향을 미치고 있으며 저출산·고령화 현상으로 더 중요해질 수밖에 없다. 이 책에서는 언어와 문화적 차이를 포함해 다양한 차이를 극복하고 한국인과 외국인이 성공적으로 협업할 수 있는 해법을 제시하고 있다. 176쪽, 1만 7000원.
  • 위기에 강한 AI 펀드매니저… 코스피 25% 빠질 때 -6% ‘선방’ [경제의 창]

    위기에 강한 AI 펀드매니저… 코스피 25% 빠질 때 -6% ‘선방’ [경제의 창]

    인공지능(AI) 펀드매니저의 수익률이 산전수전 다 겪은 전문 투자자보다 나을까. AI가 체스, 바둑에서 인간을 앞지른 건 오래전 일이다. AI는 인간의 전유물인 줄 알았던 예술 창작의 영역마저 넘보는 중이다. 모르는 것도 못 하는 일도 없어 보이는 AI에게 ‘성투’(성공적 투자)는 그리 어려운 숙제 같지는 않다. 머지않은 미래 AI에게 밀려 인간 펀드매니저가 사라지는 것은 아닐까.로보어드바이저 각광“아직 초기 단계지만무한 가능성 열릴 것” 미국 월가에서 AI에게 금융인들이 의자를 빼앗기고 있는 건 이미 오래된 현실이다. 일례로 미 대형 투자은행 골드만삭스는 2017년 AI 투자분석 프로그램을 도입한 뒤 애널리스트를 600명 가까이 해고했다. 회사가 도입한 분석 프로그램은 당시 애널리스트 15명이 4주에 걸쳐 할 일을 5분 만에 처리한 것으로 알려졌다. 펀드매니저는 어떨까. AI를 통한 투자가 국내에 첫선을 보인 것은 8년 전인 2016년이다. 지금과 비교하면 초보적인 수준이었지만, 로보(robo)와 자문 전문가를 뜻하는 어드바이저(advisor)를 합친 ‘로보어드바이저’라는 이름으로 서비스가 도입됐다. 실험적으로 도입됐지만 현재 로보어드바이저를 사용하지 않는 금융사는 거의 없다. 로보어드바이저가 고객에게 조언하고 돈을 굴리려면 먼저 한국거래소의 정보기술(IT) 자회사 코스콤의 안전성 평가를 통과해야 한다. 지난 15일 기준 코스콤의 심사를 통과해 서비스 중인 로보어드바이저는 356개다. 코스콤은 로보어드바이저를 투자 성향별로 ▲안정추구형 ▲위험중립형 ▲적극투자형으로 구분한다. 17일 코스콤에 따르면 지난해 4분기(9~12월) 위험중립형 로보어드바이저 수익률은 3%다. 숫자만 보면 로보어드바이저가 벤치마크하는 코스피200지수 수익률 9.57%에 크게 못 미친다. 보다 공격적인 투자를 하는 적극투자형 로보어드바이저 수익률은 4.41%, 반대로 안정추구형 로보어드바이저 수익률은 1.87%로 역시 미흡했다. 같은 기간 코스피 수익률이 7.72%, 코스닥 수익률이 3.04%였으니 로보어드바이저 성적표가 좋았다고 보기는 어렵다. 시원찮은 수익률에 투자자 반응은 차게 식었다. 로보어드바이저 계약자 수는 지난해 상반기 37만 6122명에서 지난해 말 29만 2532명으로 줄었다. 같은 기간 운용 금액도 1조 9396억원에서 7579억원으로 급감했다. 이 결과만 놓고 로보어드바이저 능력을 판단하면 오산이다. 로보어드바이저는 위기에 강한 ‘배짱 좋은 구원투수’의 모습을 보여 줬다. 글로벌 주식시장이 크게 침체했던 2022년 당시 코스피200 지수 수익률은 -26.15%, 코스피와 코스닥 수익률은 각각 -24.89%와 -34.30%를 기록했다. 반면 위험중립형 로보어드바이저 평균 수익률은 -8.95%였다. 안정추구형은 -6.09%, 적극투자형은 -11.91%로 상대적으로 선방했다.위험관리 능력 탁월수익률 방어 안정적퇴직연금 등에 적합 금융업계에선 현재 로보어드바이저는 ‘공격보다는 수비에 강하다’고 입을 모은다. 코스콤 측은 “미국 금리인하 기대감 등으로 주요국 주가지수가 대부분 상승했던 지난해 4분기 안전자산 비중이 큰 로보어드바이저의 성과는 상대적으로 부진했다”면서 “불확실성이 큰 시기에는 위험관리 능력이 뛰어난 로보어드바이저가 양호한 성과를 낼 것”이라고 밝혔다. 사람은 위기 때나 변동성이 큰 장에서 판단력이 흐려지는 경우도 많지만 AI는 다르다. 속된 말로 ‘폭락장에도 쫄지 않는다’는 이야기다. 증권업계 관계자는 “AI는 과거 데이터를 바탕으로 포트폴리오를 구성하기 때문에 일희일비하거나 시황에 휘둘리지 않는다”면서 “안정적인 수익률을 추구가 목표여서 장기 투자, 손실 방어에 강하다. 안정적인 노후 대비를 위한 퇴직연금 등을 관리하는 데 적당하다”고 말했다. 은행, 증권사, 핀테크사 등의 홈페이지나 휴대전화 애플리케이션(앱)에 접속해 로보어드바이저 상품에 가입할 수 있다. 사별로 조금씩 다르지만, 대체로 로보어드바이저 서비스에 가입하고 본인의 투자 성향을 입력하면 자신만의 AI 펀드매니저를 가질 수 있다. 로보어드바이저 역시 자신의 판단이 틀리면 궤도 수정을 한다. 시장 상황에 따라 포트폴리오 세부 종목을 리밸런싱(재조정) 하는 식이다. 재조정 주기는 로보어드바이저별로 다르다. 부자가 아니어도 프라이빗뱅킹(PB) 서비스를 누릴 수 있다는 것이 강점이다. 기존 PB 서비스를 받으려면 최소 수억원의 금융자산이 있어야 하지만 로보어드바이저의 최소 가입 금액은 10만~300만원 정도다. 로보어드바이저 서비스는 크게 투자자문형과 일임형으로 나뉜다. 자문형은 종목이나 매수·매도 타이밍 등을 추천만 한다. 투자자의 최종 승인이 없으면 실제 투자가 진행되지 않는다. 일임형은 말 그대로 AI가 알아서 돈을 굴려 준다. 투자자 대다수가 일임형을 선택했다. 자문형 가입자는 지난해 말 기준 822명에 불과하다.맞춤형 투자 제안각자 투자 성향 선택소액도 서비스 가능 오는 6월부터는 400조원에 달하는 퇴직연금 시장에서 로보어드바이저 일임 서비스가 가능해진다. 그간 퇴직연금의 경우 로보어드바이저는 투자 자문만 가능했다. 그러나 지난해 정부는 혁신금융 샌드박스를 통해 퇴직연금도 로보어드바이저에 일임할 수 있게 했다. 로보어드바이저 핀테크 기업 콴텍 관계자는 “투자에 익숙하지 않은 퇴직연금 고객들도 로보어드바이저를 통해 보다 적극적으로 자산을 운용할 수 있을 것”이라고 밝혔다. 로보어드바이저의 AI는 챗GPT가 대표하는 ‘생성형 AI’와는 다르다. 생성형 AI는 텍스트, 오디오, 이미지 등 이미 존재하는 콘텐츠를 활용해 새로운 콘텐츠를 만든다. 문제는 거짓 정보를 사실처럼 그럴듯하게 포장하는 생성형 AI 특유의 ‘할루시네이션’(환각) 현상이다. 거짓말을 할 수 있으니 투자용으로는 적합하지 않다. 로보어드바이저에 활용하는 AI는 데이터에서 ‘분석형 AI’다. 분석형 AI는 수많은 알고리즘, 방대한 빅데이터를 해석해 결론을 낸다. 분석형 AI의 답변은 일관적이다. 질문에 따라 대답이 달라지고 하나의 질문에 여러 답변이 나오는 생성형 AI와 달라 분석형 AI는 투자에 적합하다는 평가다. 전문가들은 로보어드바이저의 가능성에 주목한다. 최병호 고려대 인공지능연구소 교수는 “AI 바둑 프로그램 알파고는 인간이 가지고 있지 않은 수를 둔다”면서 “주식도 금융도 인간의 수준에서 ‘정석’이라는 것이 있다. 하지만 AI는 인간의 정석을 뛰어넘는 투자를 할 수 있을지 모른다. 무한한 가능성이 열릴 것”이라고 했다. 서울여대 바른AI연구센터장인 김명주 정보보호학과 교수는 “기술이 더 좋아지면 로보어드바이저 수익률이 실적 나쁜 인간 펀드매니저보다 높아질 수 있다”고 했다. 김 교수는 “주가에 영향을 줄 수 있는 정보를 즉각적으로 알고리즘에 반영해야 하는데 아직 우리 로보어드바이저 기술이 그 정도가 안 돼 수익률이 기대에 못 미치는 것”이라면서 “앞으로 로보어드바이저가 데이터를 습득하고 반응하는 속도가 빨라지면 얘기가 달라질 것”이라고 밝혔다. 반면 김형중 고려대 정보보호대학원 교수는 “AI가 분석과 해석의 영역에서 빠르고 정확할 수는 있다. 하지만 현실에서는 과거의 패턴과 다른 일이 수시로 발생한다. 벗어난 돌발 상황에 AI가 제대로 대처할 수 있을지는 여전히 의문”이라면서 “로보어드바이저가 인간보다 뛰어난 점은 정해진 절차를 빠르게 수행한다는 것이다. 인간을 보조하고 지원하는 정도에 그칠 것이다. 대체는 무리”라고 말했다. 돌발상황 대처 의문“패턴 벗어나면 오류인간 대체하진 못해” 서기수 서경대 금융정보공학과 교수는 “기술적으로 AI가 펀드매니저를 대신하는 것은 지금도 가능하다”면서도 “자율주행자동차 사고가 났을 때 책임 소재를 묻기 어려운 것처럼 로보어드바이저 투자 실패 때 그 책임을 두고 논란이 일 수 있다. 결국 최종 판단은 인간의 몫”이라고 했다. 최근 산업연구원 보고서에 따르면 금융업에서는 AI 때문에 일자리가 사라질 위험군의 99.1%가 경영·금융 전문가로 나타났다. AI가 인간 펀드매니저를 완벽하게 대체하는 날이 올까. 우울한 현실은 생각보다 가까울 수 있다.
  • AI는 지능형 비서, 통제불능 걱정 말라… 인간은 더 인간다워진다 [AI 블랙홀 시대]

    AI는 지능형 비서, 통제불능 걱정 말라… 인간은 더 인간다워진다 [AI 블랙홀 시대]

    생성형 인공지능(AI) 등장 이후 빠른 속도로 기술이 발전하면서 인류와 AI의 공존이 화두로 떠올랐다. 모든 산업의 AI화를 넘어 일상에까지 침투해 온 AI를 그저 ‘반가운 손님’으로 맞이할 것인지 사람들이 묻기 시작한 것이다. AI가 인간의 통제를 벗어날지도 모른다는 두려움은 더 늦기 전에 기술 개발을 잠시 멈추자는 논의로 이어졌다. 스스로 의식을 가진 AI가 갑자기 깨어나서 인류를 멸망시킬 것인가. 서울신문은 ‘인간은 필요 없다’, ‘인공지능의 미래’ 등 베스트셀러 저자이자 미국 스탠퍼드대에서 AI의 사회·경제적 영향에 관해 강의하고 있는 인공지능학자 제리 캐플런(72) 박사에게 생성형 AI 이후 달라질 미래 모습에 대해 이메일을 통해 물었다. 그는 5일 “걱정하지 말라”며 “변화를 감당할 수 없을 만큼 상황이 너무 빠르게 진행되고 있지는 않다”고 말했다. 캐플런 박사는 최근 생성형 AI가 가져올 변화를 다룬 책에서도 “우리가 설계한 기계가 엉망이 돼 날뛰지 않도록 적절한 회로 차단기를 설치하면 된다”고 주장했다. “생성형 AI는 인간처럼 생각하지도 않고 인간과 같은 마음도 없다”는 그는 정체불명의 의인화된 AI는 현실에 없기 때문에 우리를 공격하지 않을 것이라고 했다. 다만 생성형 AI가 우리 삶의 거의 모든 걸 변화시키고 노동시장을 뒤흔들며 사회질서를 재편할 것이라고 봤다. 다음은 일문일답.#선거판 속 AI딥페이크, 스팸 메일처럼 심각사용금지·형사고발 이어질 것 -텍스트를 입력하면 알아서 동영상을 만들어 주는 AI 모델(소라·Sora)이 공개됐다. 기술 발전 속도가 너무 빠른 것 아닌가. “놀랍게도 기술 발전의 속도를 연구하는 경제학자들은 가까운 과거의 발전 속도가 실제로 이전보다 더 느리다는 사실을 발견했다. 예를 들어 당신이 1910년에 살고 있었다면 지난 20년 동안 자동차, 비행기, 녹음기 발명을 목격했을 것이다. 조금만 더 거슬러 올라가면 사진 발명도 있었다.” -대선을 앞둔 미국과 마찬가지로 한국은 4월 국회의원 선거를 앞두고 딥페이크 영상 게시물로 몸살을 앓고 있다. “딥페이크는 과거 스팸 메일과 마찬가지로 심각한 문제다. 간단히 말해 선거 등 중요한 상황에서 딥페이크 사용은 금지될 것이며 사용할 경우 형사 고발로 이어질 것이다. 또한 사람들은 그 문제에 대해 훨씬 더 많이 인식하게 될 것이고, (딥페이크 영상에 대해) 더욱 회의적으로 변할 것이다.” -AI 기술로 인한 일자리 변화는 막을 수 없을 것 같다. “그래픽 아티스트, 컴퓨터 프로그래머 등 일부 직업은 다른 직업보다 더 큰 영향을 받을 것이다. 그러나 이러한 직업에 종사하는 대부분의 사람들은 여전히 직업을 갖고 있을 것이고, 생성형 AI 시스템을 ‘지능형 비서’로 사용할 것이다. 과거 사진이 발명됐을 때 초상화가 등 화가라는 직업에 영향을 미쳤던 것만큼 극적인 변화는 아닐 것으로 본다.”#노동시장의 변화컴퓨터 관련 직업은 변화 예고AI 시스템에 업무 도움받을 것 -생성형 AI의 문제점 중 하나는 ‘할루시네이션’(환각 현상)이다. AI가 그럴듯한 오답을 내놓는 이 현상이 수년 내 해결될까. “실제로 AI가 우리가 기대하는 것보다 더 인간처럼 행동한다는 게 문제다. 이 문제는 여러 방식으로 제어가 될 것이다. 우선 가짜 정보를 만들어 내는 걸 방지하는 ‘내부 설정’ 작업과 함께 특정 목적에 맞게 훈련을 거칠 것이다. 둘째, 개발자들이 AI가 꾸며내지 않도록 지시하는 더 나은 방법을 찾을 것이다. 셋째, 대부분 시스템은 인간이 하는 것처럼 외부 소스를 통해 의심스러운 정보를 확인할 수 있을 것이다. 문제가 해결되지는 않아도 이 세 가지는 환각 문제를 크게 줄여 줄 것으로 본다.” -AI가 설계자의 의도나 예상과 다른 결과물을 내놓는다면 결과적으로 인간이 AI를 통제할 수 없다는 것 아닐까. 국제규범 마련이 시급하다는 의견도 있다. “국제규범은 도움이 되지 않을 것이다. 무엇이 허용되고, 그렇지 않은지를 AI 시스템이 더 잘 이해할 수 있게 훈련시켜야 한다. 이 시스템을 적절하게 통제할 수 없다면 굳이 특정한(위험한) 용도나 목적으로 사용하지는 않을 것이다. 우리는 온갖 위험한 도구를 만들고, 그 결과를 감수하며 살아간다. 자동차를 예로 들어 보자. 교통사고로 수많은 사람이 목숨을 잃지만 편리함 때문에 자동차를 이용한다. AI 시스템도 마찬가지 아닐까.” -생성형 AI의 등장으로 인간이 묻고 AI가 답하는 시대가 됐다. 우리는 어떤 역량을 더 발전시켜야 할까. “생성형 AI로 인해 사람들은 이전보다 감독자, 관리자에 가까워질 것이다. 이 새로운 기술은 사람들이 기계로부터 나은 결과를 얻어내는 데 전문가가 되게 해 줄 것이다. 스프레드시트(숫자 표에서 계산 기능을 수행하는 프로그램) 사용법을 아는 것과 다르지 않다. 기술을 더 잘 활용할 수 있는 사람이 이러한 기술을 갖지 못한 사람에 비해 더 높은 평가를 받게 될 거다.” -사람들이 AI에 감정적 애착을 느낄 수도 있을 것 같다. AI를 유일한 대화 상대이자 친구로 느끼게 되면 인간과의 관계 맺기가 왜곡되지 않을까. “저는 AI와 교제하는 걸 ‘정서적 포르노’(emotional pornography)라고 부른다. 우리를 이전보다 더 고독하게 만드는 동시에 외로움을 줄여 줄 수도 있다. 얼마나 모순인가.” #오답 말하는 AI기대보다 ‘인간처럼 행동’ 문제여러 설정·훈련 통해 제어될 것 -정서적 포르노라고 표현한 건 AI와 매우 강한 감정적 유대를 형성하면서 사람들이 혼란을 겪게 되고, 정상적인 인간관계가 붕괴될 수 있다는 뜻인가. “포르노는 사람들이 실제 사람들과 상호작용하는 대신 사진을 통해 만족을 얻도록 한다. 정서적 포르노도 비슷하다. 실제 사람들과 교제하지 않고 컴퓨터 프로그램과 상호작용하면서 (관계에 대한) 필요를 충족시킬 것이다. 그렇게 되면 인류와도 단절되는 것이다.” -AI 기술 발전으로 로봇이 많은 일을 대체하면 ‘사람은 도대체 뭔가’라는 질문에 직면할 것 같다. AI 시대 인간다움은 무엇이라고 생각하나. “인류는 아무데도 가지 않는다. 걱정할 필요가 없다. 오늘날 우리는 더이상 가구, 옷 등을 만드는 숙련된 장인을 필요로 하지 않지만 그러한 기술을 가진 사람은 과거에 비해 훨씬 더 존경받으며 가치를 인정받는다. 생성형 AI도 우리를 가장 인간답게 만드는 일에 집중할 수 있게 해 줄 것이다.” #저작권의 새 정의사진 첫 발명 때 저작권 미적용AI 결과물도 법 보호받게 될 것 -생성형 AI가 내놓은 결과물이 인간의 창작 활동을 대체하면서 저작권 정의를 바꿔야 한다는 주장도 나온다. “AI 프로그램의 결과물도 저작권 보호를 받을 수 있게 법률을 바꿀 필요가 있다. 사진이 발명됐을 당시 사진가가 한 일은 ‘버튼을 누르는 것’뿐이었기 때문에 사진은 저작권이 있는 것으로 여겨지지 않았다. 지금 생각하면 말도 안 되는 얘기 아닌가. 생성형 AI에도 같은 일이 일어날 거다. 생성형 AI로 최상의 결과를 얻을 수 있는 사람은 매우 숙련된 사람으로 간주되고, 그들의 작업은 저작권의 보호를 받을 것이다.” -챗GPT 등장 이후 세계는 AI 경쟁에 돌입해 자국의 언어와 문화를 접목한 AI 모델을 만들고 있다. 앞으로 AI 주권을 지키는 현상이 더욱 강화될 것으로 예상된다. ‘AI 민족주의’는 불가피한가. “그렇다. 하지만 좋은 일이라고 생각한다. 사람들은 그들의 가치와 문화를 반영하는 제품(AI 모델)을 원할 것이다. 현지 기업은 멀리 있는 글로벌 기업보다 이러한 요구 사항을 더 잘 식별할 가능성이 높다. 이를 가장 잘 수행하는 회사나 제품이 현지 시장 내 경쟁에서도 이길 것이다.” #제리 캐플런 박사는? 제리 캐플런 박사는 미국 실리콘밸리에서 여러 기술기업을 창업했던 현장형 전문가다. 인공지능(AI) 분야 벤처기업 ‘테크놀리지’(Teknowledge)를 비롯해 ‘고 코퍼레이션’, ‘온세일’ 등을 공동 설립했다. 그는 현장 경험을 살려 일흔이 넘은 나이에도 여전히 강단(스탠퍼드대 겸임강사)에 서며 저술 활동을 하고 있다. 지난달 생성형 AI에 관한 책(‘Generative Artificial Intelligence: What Everyone Needs to Know’)을 새로 냈다. 한국어판(‘제리 카플란 생성형 AI: 지금 우리에게 필요한 것들’)은 올 상반기 내 나올 예정이다.
  • 허사비스 “2∼3년 내 AI가 만든 약 나올 것”

    허사비스 “2∼3년 내 AI가 만든 약 나올 것”

    인공지능(AI) 바둑 프로그램 ‘알파고’의 개발자로 유명한 데미스 허사비스(48) 구글 딥마인드 최고경영자(CEO)가 “앞으로 2~3년 안에 인공지능(AI)이 디자인한 약을 병원에서 보게 될 것”이라고 내다봤다. 허사비스 CEO는 26일(현지시간) 스페인 바르셀로나에서 열린 세계 최대 이동통신 전시회 ‘모바일 월드 콩그레스(MWC) 2024’ 첫날 기조연설자로 나와 이같이 밝혔다. 허사비스 CEO는 ‘우리의 AI 미래’라는 주제의 대담에서 “최근 일라이릴리, 노바티스 등 글로벌 대형 제약사와 계약했다”며 “앞으로 몇 년 안에 AI 설계 약물이 임상과 임상 테스트에 포함될 것”이라고 말했다. 그러면서 “끔찍한 질병을 치료하는 새로운 약을 발견하는 데 걸리는 기간이 평균 10년에서 앞으로 몇 달 정도로 단축되길 희망한다”고도 했다. 허사비스 CEO는 “AI 기기가 이동통신 사업자들에게 어마어마한 기회가 되고 있다”며 최초의 AI스마트폰인 삼성전자 갤럭시S24에 장착된 ‘서클 투 서치’와 같은 AI 신기능이 “일상생활을 바꿔놓고 있다”고 평가했다. 최근 구글의 AI 모델인 ‘제미나이’의 이미지 생성 기능이 역사적 인물을 유색인종으로 잘못 생성해 일시 중단된 데 대해서는 “몇 주 안에 (서비스를) 재개할 것으로 기대한다”고 답했다. 또 경쟁사인 오픈AI의 대화형 AI 서비스인 ‘챗GPT’ 열풍에 대해선 “(초기에) 결함이 있고 환각 현상이 있음에도 대중이 이 시스템을 사용할 준비가 돼 있다는 사실에 놀랐다”고 언급했다.
  • 상상력만 있다면 AI는 우릴 못 넘지

    상상력만 있다면 AI는 우릴 못 넘지

    컴퓨터 ‘매니악’ 만든 폰 노이만그 행보 따라가며 AI 발전 다뤄이세돌·알파고 대결은 ‘전환점’어떤 미래든 중심엔 인간 존재현대사회는 상상력 위기 겪어 “1933년 9월 25일 아침, 오스트리아 물리학자 파울 에렌페스트는 열다섯살 난 아들 바실리의 머리를 총으로 쏜 뒤 자신에게도 총을 겨눴다. 파울은 즉사했고, 다운증후군을 앓던 바실리는 몇 시간을 더 고통스러워하다 사망 선고를 받았다.” 20세기 초 물리학의 전성시대를 다룬 소설 ‘우리가 세상을 이해하길 멈출 때’로 2021년 부커상 최종심에 올랐던 네덜란드 출신 칠레 소설가 벵하민 라바투트(44) 신작 ‘매니악’(문학동네)의 첫 부분이다.충격적인 장면으로 시작하는 이 소설은 컴퓨터 ‘매니악’을 만든 천재 수학자 존 폰 노이만의 행보를 따라가며 인공지능(AI)에 관한 아이디어를 내놓는 과정이 이야기 뼈대를 이룬다. 한국 이세돌 9단과 구글 딥마인드의 바둑 AI ‘알파고’ 간 세기의 대결 장면도 책의 3분의1이나 차지하고 있다. 전작과 마찬가지로 ‘매니악’도 실존 과학자들을 등장인물로 해 거기에 상상력을 더한 소설이다. AI의 과거와 현재, 미래를 이야기하는 이 책은 전작보다 한층 더 깊이 있고 무겁다. 그렇지만 마지막 장까지 눈을 뗄 수 없게 만든다. 라바투트는 25일 서울신문과의 서면 인터뷰를 통해 인간 지성과 AI에 관한 이야기를 나눴다. ‘우리가 세상을~’과 ‘매니악’ 모두 현대 과학에 큰 획을 그은 인물들과 과학적 발견을 소재로 한 과학소설(SF) 같다는 질문에 대해 라바투트는 “두 책 모두 과학을 소재로 삼고 있지만, 과학이 말할 수 없는 것을 보여 주기 위한 수단일 뿐”이라고 답했다.AI 발전 과정을 다룬 소설 ‘매니악’에서 이세돌 9단과 바둑 AI ‘알파고’의 대결을 다룬 것은 “AI 기술 발전 과정에서의 분명한 전환점”으로 생각했기 때문이라고 라바투트는 밝혔다. 그는 “어떤 대결은 인생보다 더 진지하고 특별한데, 이세돌과 알파고의 대결이 그런 것”이라며 “우리가 상상할 수 없는 방식으로 전개됐다”고 강조했다. 이번 작품에서는 인간을 뛰어넘는 지성의 등장에 대한 우려가 곳곳에서 느껴진다. 이에 대해 그는 “AI든 뭐든 인간을 뛰어넘는 지성이 잔인함을 보이기 시작하면 걱정이 될 것 같다”고 답했다. 라바투트는 AI가 가져오는 미래가 긍정적이든 부정적이든 중요한 것은 ‘인간’과 ‘상상력’이라고 밝혔다. 그는 “어떤 미래가 기다리고 있든, 어떤 기술이 등장하든 그 중심에는 인간이 있다”고 강조했다. “인간이 미래로 나아가기 위해서는 미래를 상상할 수 있어야 하는데, 현대 사회는 상상력의 위기를 겪고 있다”고도 지적했다. 라바투트는 작가들이 최근 챗GPT를 많이 사용하는 것에 대해 본인도 자주 사용한다고 털어놓았다. 그는 “챗GPT와 같은 생성형 AI는 작품 구상과 집필에 훌륭한 도구”라고 답했다. 라바투트는 또 “많은 사람이 챗GPT의 오류라고 말하는 할루시네이션(hallucination)이 작가에게는 금광 같다”는 재미있는 말을 했다. 한국말로 ‘환각’으로 해석되는 할루시네이션은 AI가 학습하는 데이터에 포함돼 있는 편향성과 오류, 모순 등으로 인해 만들어지는 잘못된 정보 출력 현상을 말한다. 라바투트는 “챗GPT가 만들어 낸 잘못된 정보를 접하면 그것에서 아이디어를 얻어 곧바로 글을 쓴다”면서 “환상을 현실로 만들어 내는 과정은 항상 재미있다”고 말했다.
  • “상상력만 있다면 인공지능은 인간 넘어서지 못할 것”

    “상상력만 있다면 인공지능은 인간 넘어서지 못할 것”

    “1933년 9월 25일 아침, 오스트리아 물리학자 파울 에렌페스트는 열다섯 살 난 아들 바실리의 머리를 총으로 쏜 뒤 자신에게도 총을 겨눴다. 파울은 즉사했고, 다운증후군을 앓던 바실리는 몇 시간을 더 고통스러워하다 사망 선고를 받았다.” 20세기 초 물리학의 전성시대를 다룬 소설 ‘우리가 세상을 이해하길 멈출 때’로 2021년 부커상 최종심에 올랐던 네덜란드 출신 칠레 소설가 벵하민 라바투트(44) 신작 ‘매니악’(문학동네)의 도입부다. 충격적인 장면으로 시작하는 이 소설은 컴퓨터 ‘매니악’을 만든 천재 수학자 존 폰 노이만의 행보를 따라가며 인공지능의 아이디어를 내놓는 과정이 이야기 뼈대를 이룬다. 한국 이세돌 9단과 구글 딥마인드의 바둑 인공지능 ‘알파고’ 간 세기의 대결도 책의 3분의1이나 차지한다. 매니악도 전작과 마찬가지로 실존 과학자들을 소재로 상상력을 더한 소설이다. 인공지능의 과거와 현재, 미래를 이야기하는 이 책은 전작보다 한층 더 깊이 있고 무겁다. 그렇지만 마지막 장까지 눈을 뗄 수 없게 만든다. 라바투트는 서울신문과의 서면 인터뷰를 통해 인간 지성과 인공지능에 관해 이야기를 나눴다.‘우리가 세상을~’과 ‘매니악’ 모두 현대 과학에 큰 획을 그은 인물들과 과학적 발견을 소재로 한 과학소설(SF) 같다는 질문에 대해 라바투트는 “장르에 얽매이지 않고 자유롭게 글을 쓰려고 하지만 양자역학과 같은 현대 과학 이야기를 쓰다 보면 작품의 구조, 문체 등에 영향을 미칠 수밖에 없다”라고 말했다. 그는 “두 책 모두 과학을 소재로 삼고 있지만, 과학이 말할 수 없는 것을 보여주기 위한 수단일 뿐”이라고 답했다. AI 발전 과정을 다룬 소설 ‘매니악’에서 이세돌 9단과 바둑 인공지능 ‘알파고’ 대결을 다룬 것은 “AI 기술 발전 과정에서 분명한 전환점”으로 생각했기 때문이라고 라바투트는 밝혔다. 그는 “어떤 대결은 인생보다 더 진지하고 특별한데, 이세돌과 알파고의 대결이 그런 것”이라며 “우리가 상상할 수 없는 방식으로 전개됐다”고 강조했다. 이번 작품에서는 인간을 뛰어넘는 지성의 등장에 대한 우려가 곳곳에서 느껴진다. 이에 대해 그는 “인공지능이든 뭐든 인간을 뛰어넘는 지성이 잔인함을 보이기 시작하면 걱정이 될 것 같다”고 답했다. 라바투트는 인공지능이 가져오는 미래가 긍정적이든, 부정적이든 중요한 것은 ‘인간’과 ‘상상력’이라고 밝혔다. 그는 “어떤 미래가 기다리고 있든, 어떤 기술이 등장하든 그 중심에는 인간이 있다”라고 강조했다. “인간이 미래로 나가기 위해서는 미래를 상상할 수 있어야 하는데, 현대 사회는 상상력의 위기를 겪고 있다”라고 지적했다.라바투트는 최근 작가들도 챗GPT를 많이 사용하는 것에 대해 본인도 자주 사용한다고 밝혔다. 그는 “챗GPT와 같은 생성형 인공지능이 작품 구상과 집필에 훌륭한 도구”라고 답했다. 라바투트는 “많은 사람이 챗GPT의 오류라고 말하는 할루시네이션(hallucination)이 작가에게는 금광 같다”는 재미있는 말을 했다. 한국말로 ‘환각’으로 해석되는 할루시네이션은 AI가 학습하는 데이터에 포함돼있는 편향성과 오류, 모순 등으로 인해 만들어지는 잘못된 정보 출력 현상을 말한다. 라바투트는 “챗GPT가 만들어 낸 잘못된 정보를 접하면 그에서 아이디어를 얻어 곧바로 글을 쓴다”라면서 “환상을 현실로 만들어 내는 과정은 항상 재미있다”라고 말했다. 그렇지만, 다음 작품 구상과 다음 작품에도 과학자가 등장하는지를 묻는 질문에 라바투트는 “아이디어는 많지만, 글이 전혀 써지지 않는 상황”이라면서 “앞길이 보이지 않는 힘든 전환점인 만큼 늘 하던 대로 침묵 속에서 깊이 고민할 것”라고 밝혔다.
  • 비서로, 집사로 진화한 AI… 인간처럼 추론하는 ‘GPT-5’도 온다 [AI 블랙홀 시대-인간다움을 묻다]

    비서로, 집사로 진화한 AI… 인간처럼 추론하는 ‘GPT-5’도 온다 [AI 블랙홀 시대-인간다움을 묻다]

    ‘인공지능(AI)이라는 말이 사라진다?’ 생성형 AI ‘챗GPT’ 등장 이후 AI가 광범위하게 일상에 녹아들면서 AI 기술 자체를 강조하는 현상은 올해를 기점으로 점차 줄어들 것이란 전망이 나온다. 이른바 ‘AI 역설’이다. AI가 제품, 서비스 안으로 들어가면서 ‘AI 기술을 적용했다’는 게 중요한 것이 아니라 AI를 통해 어떤 혁신을 이뤘는지가 중요해지는 시대로 바뀌고 있다는 뜻이다. #美 CES 최대 화두 인터넷 필요 없는 AI 시대주요 기업들도 뛰어들어 지난 9~12일(현지시간) 미국 라스베이거스에서 열린 세계 최대 가전·정보기술(IT) 전시회 CES 2024에서도 전자제품, 자동차, 로봇부터 안경, 유모차, 베개까지 다양한 제품이 AI라는 ‘옷’을 입고 이전보다 훨씬 똑똑해진 모습으로 사람들 앞에 나타났다. 남아 있는 손가락 신경의 작은 신호를 AI가 읽고 실제 손가락처럼 움직이는 ‘손가락 의수’, 음성을 수어로 바꿔 주고 사람처럼 풍부한 표정을 짓는 ‘3차원(D) AI 아바타’도 등장했다. CES 현장을 둘러본 장병탁 서울대 AI연구원장은 23일 “제품의 전반에 AI가 스며들고 있다”고 평가했다. ●모든 사물에 AI 적용하는 시대 이번 CES에서 주목받은 ‘AI 에이전트’와 ‘온디바이스 AI’는 AI 기술이 어떤 식으로 발전할지를 보여 준다. AI 에이전트는 사용자가 원하는 걸 알아서 척척 해 주는 일종의 AI 비서로 실제 구현되는 모습은 다양하다. 기능적으로 PC, 자동차 등에 내장되거나 움직이는 로봇 형태를 띨 수도 있다. 국내 가전업체가 공개한 ‘AI 로봇’도 AI 에이전트에 해당된다. AI 로봇은 사물인터넷(IoT)과 AI가 결합된 사물인공지능(AIoT·AI of Things)을 통해 개인 맞춤형 비서 역할뿐 아니라 집안 일을 대신해 주는 집사 역할도 할 것으로 전망된다. 인터넷 연결과 상관없이 기기 안에서 AI를 구동할 수 있는 온디바이스 AI도 PC, 스마트폰에서 구현되기 시작했다. 온디바이스 AI의 확산은 소규모언어모델(sLM) 개발 경쟁으로도 이어졌다. sLM은 오픈AI의 GPT-4, 구글 제미나이와 같은 대규모언어모델(LLM)에 비해 학습량은 적지만 최적화를 통해 최대한의 성능을 내면서 개발·구동 비용을 줄인 언어모델이다. 특히 AI의 학습 지표인 매개변수(파라미터)가 70억개(7B) 이하인 sLM 시장을 선점하기 위한 경쟁이 치열하다. 메타(라마2 7B), 구글(제미나이 나노1, 나노2), 마이크로소프트(파이2) 등 글로벌 주요 기업도 줄줄이 뛰어들었다. 지난해 ‘미스트랄 7B’에 이어 수학, 물리 등 작은 전문 모델로 쪼갠 뒤 질문에 따라 연결하는 방식의 ‘믹스트랄 8x7B’(전문가 믹스·MoE) 모델을 오픈소스(소프트웨어 설계도 공개)로 내놓은 프랑스 스타트업 미스트랄 AI는 오픈AI의 대항마로 떠오르고 있다. #연내 ‘GPT-5’ 공개GPT-4에 추론 기능 추가인간 수준 AI 현실화 전망 이경전 경희대 경영학·빅데이터응용학과 교수는 “중요한 건 모델을 실제 사용하고 난 뒤의 평가”라면서 “미스트랄을 써 본 기업들 얘기를 들어 보면 다들 ‘써 보니 좋다’고 한다. 오픈 소스로 이만큼 따라왔다는 건 한국 기업에도 희소식”이라고 말했다. ●텍스트 넘어 이미지·영상·음성도 생성 성능으로 승부를 보는 LLM의 진화도 계속되고 있다. 오픈AI의 최신 LLM인 GPT-4(매개변수 1조 7000억개 추정)보다 더 많은 기능이 추가된 GPT-5가 올해 안에 공개될 예정이다. 추론 기능도 추가된다고 한다. 텍스트(글자)를 학습하는 걸 넘어 이미지·영상·음성을 분석하고 생성하는 ‘멀티 모달’ 방식으로도 발전하고 있다. 인간이 다양한 방식을 통해 사물을 인식하는 것과 동일하게 AI가 학습한다는 얘기다. ‘할루시네이션’(환각 현상·AI가 정보를 처리하는 과정에서 그럴듯한 오답을 내놓는 현상)은 완전히 제거되지 않았지만 인간처럼 사고하고 판단할 수 있는 능력을 갖춘다는 건 인공일반지능(AGI·인간 수준으로 일을 처리하는 AI)이 현실화할 수 있다는 의미로 해석된다. #AI 어디까지 왔나AGI는 초기 단계 머물러감각 분석 기술 집중해야 구글 딥마인드의 6단계 분류 기준으로 보면 특정 업무 수행에 초점을 맞춘 AI 중에선 단백질 구조 예측 AI ‘알파폴드’처럼 이미 인간을 뛰어넘는 ‘레벨5’(슈퍼휴먼)의 AI도 등장했다. 그러나 전반적인 업무를 수행할 수 있는 AGI(챗GPT, 바드, 라마2)는 아직 ‘레벨1’(초기 단계)에 머물러 있다. 장 원장은 “텍스트를 학습한 생성형 AI의 성능에 대해선 연구자들도 놀라고 있다”면서 “AGI 시대가 앞당겨지는 느낌을 많이 받는다”고 말했다. 그러면서도 “시각 등 감각에 해당하는 부문은 아직 데이터화되지 않은 게 많다”며 “표정이나 감정을 분석하는 건 어려운 기술이지만 이게 가능해지면 파급효과가 엄청나다. 우리가 집중해야 할 부분”이라고 강조했다.
  • 인간을 닮아가는 AI, 인간을 뛰어넘나…“표정·감각 분석은 어려운 기술”

    인간을 닮아가는 AI, 인간을 뛰어넘나…“표정·감각 분석은 어려운 기술”

    ‘인공지능(AI)이란 말이 사라진다?’ 생성형 AI ‘챗GPT’ 등장 이후 AI가 광범위하게 일상에 녹아들면서 AI 기술 자체를 강조하는 현상은 올해를 기점으로 점차 줄어들 것이란 전망이 나온다. 이른바 ‘AI 역설’이다. AI가 제품, 서비스 안으로 들어가면서 ‘AI 기술을 적용했다’는 게 중요한 게 아니라 AI를 통해 어떤 혁신을 이뤘는지가 중요해지는 시대로 바뀌고 있다는 뜻이다. 지난 9~12일(현지시간) 미국 라스베이거스에서 열린 세계 최대 가전·정보기술(IT) 전시회 CES 2024에서도 전자제품, 자동차, 로봇부터 안경, 유모차, 베개까지 다양한 제품이 AI라는 ‘옷’을 입고 이전보다 훨씬 똑똑해진 모습으로 사람들 앞에 나타났다. 남아 있는 손가락 신경의 작은 신호를 AI가 읽고 실제 손가락처럼 움직이는 ‘손가락 의수’, 음성을 수어로 바꿔주고 사람처럼 풍부한 표정을 짓는 ‘3차원 AI 아바타’도 등장했다. CES 현장을 둘러본 장병탁 서울대 AI연구원장(컴퓨터공학부 교수)은 23일 “제품의 전반에 AI가 스며들고 있다”고 평가했다. 제품 안으로 들어간 AI…sLM 개발 경쟁 치열 이번 CES에서 주목 받은 ‘AI 에이전트’와 ‘온디바이스 AI’는 AI 기술이 어떤 식으로 발전할 지를 보여준다. AI 에이전트는 사용자가 원하는 걸 알아서 척척 해주는 일종의 AI 비서로, 실제 구현되는 모습은 다양하다. 기능적으로 PC, 자동차 등에 내장되거나 움직이는 로봇 형태를 띨 수도 있다. 국내 가전업체가 공개한 ‘AI 로봇’도 AI 에이전트에 해당된다. AI 로봇은 사물인터넷(IoT)과 AI가 결합된 사물인공지능(AIoT·AI of Things)을 통해 개인 맞춤형 비서 역할 뿐 아니라 집안 일을 대신 해주는 집사 역할도 할 것으로 전망된다. 인터넷이 연결되지 않아도 기기 안에서 AI를 구동할 수 있는 온디바이스 AI도 PC, 스마트폰에서 구현되기 시작했다. 온디바이스 AI의 확산은 소규모언어모델(sLM) 개발 경쟁으로도 이어졌다. sLM은 오픈AI의 GPT-4, 구글 제미나이와 같은 대규모언어모델(LLM)에 비해 학습량은 적지만 최적화를 통해 최대한의 성능을 내면서 개발·구동 비용을 줄인 언어모델이다. 특히 AI의 학습 지표인 매개변수(파라미터)가 70억개(7B) 이하인 sLM 시장을 선점하기 위한 경쟁이 치열하다. 메타(라마 2 7B), 구글(제미나이 나노-1, 나노-2), 마이크로소프트(파이-2) 등 글로벌 주요 기업도 줄줄이 뛰어들었다. 지난해 ‘미스트랄 7B’에 이어 수학, 물리 등 작은 전문 모델로 쪼갠 뒤 질문에 따라 연결하는 방식의 ‘믹스트랄 8x7B’(전문가 믹스·MoE) 모델을 오픈소스(소프트웨어 설계도 공개)로 내놓은 프랑스 스타트업 미스트랄 AI는 오픈AI의 대항마로 떠오르고 있다. 이경전 경희대 경영학·빅데이터응용학과 교수는 “중요한 건 모델을 실제 사용하고 난 뒤의 평가”라면서 “미스트랄을 써본 기업들 얘기를 들어보면 다들 ‘써보니 좋다’고 한다. 오픈소스로 이만큼 따라왔다는 건 한국 기업에도 희소식”이라고 말했다. 텍스트에서 이미지·영상·음성 분석으로…AGI 현실화? 성능으로 승부를 보는 LLM의 진화도 계속되고 있다. 오픈AI의 최신 LLM인 GPT-4(매개변수 1조 7000억개 추정)보다 더 많은 기능이 추가된 GPT-5가 올해 안에 공개될 예정이다. 추론 기능도 추가된다고 한다. 텍스트(글자)를 학습하는 걸 넘어 이미지·영상·음성을 분석하고 생성하는 ‘멀티모달’ 방식으로도 발전하고 있다. 인간이 다양한 방식을 통해 사물을 인식하는 것과 동일하게 AI가 학습한다는 얘기다. ‘할루시네이션’(환각현상·AI가 정보를 처리하는 과정에서 그럴듯한 오답을 내놓는 현상)은 완전히 제거되지 않았지만 인간처럼 사고하고 판단할 수 있는 능력을 갖춘다는 건 인공일반지능(AGI·인간 수준으로 일을 처리하는 AI)이 현실화할 수 있다는 의미로 해석된다. 구글 딥마인드의 6단계 분류 기준으로 보면 특정 업무 수행에 초점을 맞춘 AI 중에선 단백질 구조 예측 AI ‘알파폴드’처럼 이미 인간을 뛰어넘는 ‘레벨6’(슈퍼휴먼)의 AI도 등장했다. 그러나 전반적인 업무를 수행할 수 있는 AGI(챗GPT, 바드, 라마2)는 아직 ‘레벨1’(초기단계)에 머물러 있다. 노건태 서울사이버대 빅데이터·정보보호학과 교수는 “AGI는 인간의 지능을 모든 영역에서 모방하거나 뛰어넘는 것을 목표로 한다”면서 “지금까지 AI가 달성한 수준과는 근본적으로 다른 훨씬 더 어려운 목표”라고 말했다. 이어 “자연어 처리, 이미지 인식, 패턴 분석 등 특정 영역에서는 매우 뛰어난 성능을 보이지만 이를 통합하고 유연하게 창의적으로 사고해 처리할 수 있는 능력은 적어도 아직까지는 사람의 고유한 영역”이라고 덧붙였다. 장병탁 원장은 “텍스트를 학습한 생성형 AI의 성능에 대해선 연구자들도 놀라고 있다”면서 “AGI 시대가 앞당겨지는 느낌을 많이 받는다”고 말했다. 그러면서도 “시각 등 감각에 해당하는 부문은 아직 데이터화 안 된 게 많다”며 “표정이나 감정을 분석하는 건 어려운 기술이지만 이게 가능해지면 파급효과가 엄청나다. 우리가 집중해야 할 부분”이라고 강조했다.
  • 무섭게 발전하는 AI, 인간 역량 중요해진다…“사용자 피드백이 AI 모델 향상”

    무섭게 발전하는 AI, 인간 역량 중요해진다…“사용자 피드백이 AI 모델 향상”

    인공지능(AI)이 지난 9~12일(현지시간) 미국 라스베이거스에서 열린 세계 최대 가전·정보기술(IT) 전시회 CES 2024에 이어 지난주 세계경제포럼(WEF·다보스포럼)에서도 화두로 떠오르면서 AI가 바꿔놓을 미래에 대한 관심도 커지고 있다. 샘 올트먼 오픈AI 최고경영자(CEO)는 다보스포럼에서 인간 수준의 일을 처리하는 인공일반지능(AGI) 상용화를 앞두고 많은 고민과 준비가 필요하다고 했다. 과연 AGI 시대가 조만간 현실화될 것인가. 국내 대표 AI 연구자인 이홍락(47) LG AI연구원 최고AI과학자(CSAI)는 23일 “최근 AI의 급격한 발전에도 불구하고 AGI까지 갈 길은 아직 먼 상황”이라고 말했다. 그는 “(일종의 AI 비서인) AI 에이전트를 통해 사람의 일을 좀 더 편하게 만들어주고, AI가 스스로 알아서 인간의 삶의 질을 높여주는 기술과 제품이 하나씩 단계별로 나오고 있다”면서도 “현재의 AI 기술은 주로 인간의 지시에 의존하며 완성도 면에서도 한계를 가지고 있다”고 말했다. 이 CSAI는 국제전기전자공학회가 선정한 ‘세계 10대 AI 연구자’로 구글 AI 연구조직 ‘구글브레인’을 거쳐 2020년 LG AI연구원에 합류했다.AGI 시대가 언제쯤 도래할 것인지에 대해서는 미국 내에서도 의견이 분분하다. AI 반도체 개발사 엔비디아의 젠슨 황 CEO와 일론 머스크 테슬라 CEO는 AGI 수준에 도달할 시점으로 각각 ‘5년 후’, ‘3년 이내’라고 예측했지만, 얀 르쿤 메타 부사장 겸 수석 AI과학자는 “예상하는 것보다 더 오래 걸릴 수 있다”고 전망했다. 구글 딥마인드 공동설립자 무스타파 술레이만도 최근 저서 ‘더 커밍 웨이브’에서 “사람들은 스위치 하나만 누르면 AGI가 바로 실현될 수 있는 것처럼 생각했다”며 “오히려 AI 시스템이 점점 더 많은 기능을 갖추면서 AGI를 향해 꾸준히 나아가는 점진적인 전환이라고 생각한다”고 설명했다. 이 CSAI도 AGI에 대해선 신중론에 가까운 편이다. 그는 “향후 AI는 더 적극적이고 자동으로 정보를 처리하고 실행하는 방향으로 발전할 것으로 기대된다”면서 “이러한 발전은 사회와 산업에 더 큰 파급효과를 가져올 것”이라고 내다봤다. 그러면서 “AGI 시대로 가려면 상당히 많은 기술 개발과 윤리적 사용을 위한 사회적 합의, 인간의 삶을 더 풍요롭게 할 수 있는 제도적 장치 등의 논의가 필요하다”고 강조했다.“전문가 수준 지식 부족·환각 현상 한계”비판적 시각 갖추고 적절한 피드백 줘야 기술 발전 속도는 AI의 ‘자가 학습 능력’을 통해 더 빨라지고 있다는 게 이 CSAI의 설명이다. 그는 “AI를 통한 코딩 자동화는 소프트웨어(SW) 개발의 효율성을 크게 항상시키고, 이는 다시 AI 모델과 애플리케이션의 발전 속도를 더 빠르게 한다”고 말했다. 이어 “AI 모델이 고품질의 데이터를 자체적으로 생성하고 이를 통해 스스로 학습하면서 성능을 개선하는 새로운 방법들이 개발되고 있다”고 덧붙였다. 이 CSAI는 AI 기술이 발전할수록 이를 활용하는 인간의 역량도 중요하다고 봤다. 그는 “현재 생성형 AI는 글쓰기와 같은 분야에서 뛰어난 능력을 보이지만 전문가 수준의 지식이 부족하고 ‘환각 현상’(할루시네이션·AI가 정보를 처리하는 과정에서 그럴듯한 오답을 내놓는 현상)과 같은 한계를 갖고 있다”면서 “사용자가 AI의 결과물에 대해 비판적인 시각을 갖고, AI가 정확하고 유용한 결과를 제공할 수 있게 적절한 피드백을 제공하는 역할이 중요하다”고 힘줘 말했다. 이 CSAI는 “사용자의 피드백은 AI 모델을 향상시키는 데 사용될 수 있고, 이러한 상호작용은 AI와 인간의 협력이 어떻게 지속적인 시너지를 내는지를 보여준다”면서 “결국 AI 기술의 효과적인 활용과 발전은 사용자의 책임감 있는 접근과 지속적인 협력 과정에 달려 있다”고 설명했다.
  • AI 규제한다고 통제 가능할까? “AI 대 AI 구도로 통제하는 것도 방법”

    AI 규제한다고 통제 가능할까? “AI 대 AI 구도로 통제하는 것도 방법”

    “인공지능(AI)가 할 수 있는 일의 범위는 놀랍도록 확장될 겁니다.” 자체 대규모언어모델(LLM)을 개발해 세계를 놀라게 한 토종 AI 스타트업 ‘업스테이지’의 최홍준(44) 부사장은 23일 “모든 사물이 AI와 결합되는 상황에서 ‘AI를 어떤 기계에 넣을 것이냐, 어떻게 쓸 것이냐’에 따라 기회는 무수히 많다”고 힘줘 말했다. 최 부사장은 지난 9~12일(현지시간) 미국 라스베이거스에서 열린 세계 최대 가전·정보기술(IT) 전시회 CES 2024에서 가장 인상적인 제품으로 삼성전자가 선보인 AI 로봇 ‘볼리’를 꼽은 뒤 “상상력을 자극하는 제품”이라고 말했다. 그는 “(이미지와 영상 등을 학습·분석하는) 멀티모달이 생활에 적용된 사례로 눈이 있고 음성 인식 기능도 있다. 볼리에 탑재된 AI가 GPT 성능 이상으로 좋아진다면 때로는 에이전트(일종의 비서), 때로는 말동무로 역할을 할 수 있을 것”이라고 내다봤다.현재의 AI 기술 수준에 대해선 “딥러닝(컴퓨터가 스스로 데이터를 조합 분석해 학습하는 기술) 알고리즘과 슈퍼 컴퓨팅 기반 대규모 데이터 처리 능력의 향상으로 자연어 처리, 이미지·음성 인식은 인간 수준의 성능을 달성했다”고 짚었다. 오픈AI의 GPT-4와 같은 LLM이 자연어 생성·이해 분야에서 혁신적인 결과를 보여줬다는 것이다. AI가 의료 진단, 금융 예측, 자율주행 자동차 등 다양한 응용 분야에서 활용되고 있는 것도 AI 기술이 상당한 발전을 이룬 사례라고 설명했다. 다만 “AI가 의사결정을 지원하고 인간을 대체하기에는 인간의 추상적 사고, 도덕적 판단, 문맥 이해 등에서 한계를 갖고 있다”는 게 최 부사장의 주장이다. 글로벌 불확실성, 경제적 요인, 정치적 변수 등도 AI 기술 발전을 예측하기 어렵게 만든다고 했다. 업스테이지는 지난달 자체 개발한 LLM ‘솔라’를 공개하고 글로벌 기술 경쟁에 뛰어들었다. 솔라는 세계 최대 AI 플랫폼 허깅페이스가 운영하는 ‘오픈 LLM 리더보드’ 평가에서 1위를 차지했다. 솔라는 기업이 활용할 수 있게 작은 크기로 구성된 경량형 언어모델(sLLM 혹은 SLM)로 매개변수(파라미터) 규모는 107억개(10.7B) 수준이다. LLM 뛰어난 발전에도 할루시네이션 여전정확성, 신뢰성 높여줄 RAG 기술 떠올라 최 부사장은 “지난해 등장한 GPT-4와 같은 LLM은 뛰어난 발전을 이뤘지만 ‘할루시네이션’(환각현상·AI가 정보를 처리하는 과정에서 그럴듯한 오답을 내놓는 현상)과 같은 문제는 아직 해결되지 않았다”고 지적했다. 그러면서 “앞으로 검색 증강 생성(RAG)과 같은 새로운 방법론이 AI 기술 발전의 핵심적인 역할을 할 것”이라고 전망했다. RAG는 외부에서 가져온 정보로 생성형 AI 모델의 정확성과 신뢰성을 높여주는 기술로 LLM의 한계를 보완해준다는 점에서 주목을 받고 있다. 최 부사장은 AI가 아직 인간의 지능을 뛰어넘는 ‘티핑 포인트’(극적인 변화의 순간)에 도달하진 못 했지만 현재의 기술 속도로 보면 몇 년 안 걸릴 것으로 봤다. 그는 “수 년 내 인간 지능을 뛰어넘을 수 있다고 생각한다”면서 “기술 발전을 통제할 수 있는 장치를 빠르게 도입해야 한다”고 강조했다. 이어 “과연 AI 규제를 통해 ‘통제가 가능할까’에 대해선 확신하기 어렵다”며 “이럴 때는 오히려 AI 대 AI의 구조로 기술 개발을 통한 통제를 하는 것도 방법일 수 있다”고 제안했다.
  • 세계 뒤흔드는 가짜뉴스 ‘폭격’… AI 규제·디지털 리터러시 급선무[AI 블랙홀 시대]

    세계 뒤흔드는 가짜뉴스 ‘폭격’… AI 규제·디지털 리터러시 급선무[AI 블랙홀 시대]

    2023년 3월 도널드 트럼프 전 미국 대통령이 뉴욕 맨해튼에서 자신을 체포하려는 경찰과 싸우는 사진이 소셜미디어(SNS)에 광범위하게 유포됐다. 한 달쯤 지나 미 공화당 전국위원회는 조 바이든 대통령이 재선될 경우 일어날 수 있는 다양한 상상 속 재난의 모습을 보여 주는 광고를 공개했다. 지난해 11월에는 일본 SNS에 기시다 후미오 총리가 성적인 발언을 하는 영상이 유포돼 논란을 불렀다. 여름에 유튜브에 올라온 것인데 X(옛 트위터)를 타고 하루 만에 조회수 230만회를 훌쩍 넘겼다. 모두 인공지능(AI) 딥러닝을 기반으로 한 합성 기술인 딥페이크로 만든 영상과 이미지였다.문제는 세상에 없는 인물과 이미지를 만들어 내는 딥페이크가 더 방대한 정보가 투입되는 딥러닝을 통해 더 정교해지고 실존에 가까워진다는 점이다. 말하는 모양의 동영상을 만들고 실제 동영상에 입술 움직임만 바꿔 넣는 딥페이크 기술로 생성한 동영상을 X나 유튜브에 올리기만 하면 삽시간에 전 세계로 퍼져 나간다. 팩트체크를 통해 가짜뉴스로 판명되더라도 이미 누군가에게는 사실로 인식되고 있을 터. 이렇게 가짜뉴스를 퍼뜨리기 좋은 상황은 극단적인 정치 분열이 있을 때나 전쟁 상황에서 더 큰 효과를 발휘한다. 우크라이나·러시아 전쟁 초반인 2022년 3월 페이스북과 유튜브 등에 퍼진 볼로디미르 젤렌스키 우크라이나 대통령의 항복 영상이 단적인 예다. 직후 블라디미르 푸틴 러시아 대통령의 평화 선언 영상이 올라왔다. 둘 다 조작된 영상으로 밝혀지면서 메타와 유튜브 등 운영사는 원본 영상을 삭제했지만 여전히 흔적이 남아 있다.딥페이크를 이용한 가짜뉴스는 전 세계 주요 선거가 줄줄이 예정된 올해 특히 민주주의를 위태롭게 하는 요소로 꼽힌다. 미국 코넬대 세라 크렙스 교수와 더그 크리너 교수는 ‘AI는 어떻게 민주주의를 위협하는가’(민주주의 저널)라는 논문에서 한 실험 결과를 내놨다. 이들은 미국 주의원 7000여명에게 AI가 쓴 편지와 사람이 작성한 편지를 동시에 보냈는데, 사람이 직접 작성한 이메일의 응답률은 AI가 쓴 이메일보다 2% 정도 높은 수준에 불과했다. 이들은 “사람이 만든 진짜 정보와 AI가 생성한 가짜 정보를 구별할 수 없는 상황”이라면서 “허위조작정보를 받아들였다고 해서 유권자들의 선택이 반드시 바뀌는 건 아니지만 민주주의 사회 내 구성원들 간 신뢰를 저해하고 공론장을 왜곡할 수 있다”고 지적했다. 3개월 전 치러진 아르헨티나 대선에서는 상대 후보를 비방하려고 만든 홍보물에 생성형 AI가 마구잡이로 악용됐다. 당시 집권 좌파연합의 대선후보였던 세르히오 마사 경제장관은 극우 경제학자 출신 하비에르 밀레이 당시 후보(현 대통령)가 “(장기 매매 시장이 활성화되면) 아이를 낳는 것이 곧 투자가 될 수 있다”고 말하는 딥페이크 영상을 제작해 유포했다. 밀레이 후보는 마사 후보를 구소련 정치 선전 포스터의 주인공으로 만들어 마사가 공산당 지도자처럼 보이게끔 했다. 두 사람이 만든 홍보물은 AI 창작물임을 명시했음에도 유권자들에게 부정적 인상을 심어 줬다. 미국은 올해 11월 5일 예정된 대선에서 생성형 AI가 훨씬 더 강력한 영향을 미칠 수 있다고 우려하고 있다. 과거의 조악한 합성 영상물과 달리 요즘의 생성형 AI가 만들어 내는 딥페이크는 실제 사람이 만든 것과 구별하기 어려울 정도로 정교하다. 지난해 5월 SNS에서 미 국방부 청사인 펜타곤 건물에서 대형 화재가 발생한 사진이 빠르게 확산하면서 주식시장까지 출렁이는 소동을 빚었다.사안의 심각성을 인식한 미국, 유럽 등 서구 민주주의 사회는 AI를 활용한 가짜뉴스를 규제하는 방법을 끊임없이 고민하고 있다. 유럽연합(EU)은 이미 수년 전부터 가짜뉴스라는 말 대신 허위정보, 잘못된 정보라는 표현을 쓰면서 미디어 역할을 차단해 왔다. 다음달부터는 ‘디지털 서비스법’을 시행해 가입국이 허위정보, 차별적 콘텐츠, 아동 학대, 테러 선전 등의 불법 유해 콘텐츠를 의무적으로 제거하도록 했다. 이를 지속적으로 위반하면 가입국에서 퇴출하는 등 강경하게 대응한다. 미국도 SNS 사업자를 규제하는 방안을 논의하는 중이다. 특히 대선을 앞둔 상황에서 극단주의와 인종차별 등 부정적인 콘텐츠가 유통되는 것을 차단하기 위해서다. 문제가 된 콘텐츠를 제작·배포하는 것뿐만 아니라 이를 확산시킬 수 있는 플랫폼을 제공한 SNS 사업자에게도 합당한 책임을 물어 콘텐츠 규제를 강화하고 있다. 포린폴리시(FP)는 최근 “올해가 AI의 안전한 개발과 사용을 위한 규제를 부과하는 정부 거버넌스 위기를 극복할 수 있을 분수령이 될 것”이라고 평가했다. 미 플로리다, 사우스캐롤라이나, 뉴햄프셔를 비롯한 여러 주에서 선거 캠페인 영상에 AI 사용을 규제하는 법안, 특히 딥페이크 기술을 이용해 후보자의 목소리와 얼굴을 악의적인 방식으로 합성하거나 조작하는 것을 규제하는 법안을 검토하고 있다. 미 싱크탱크인 ‘브레넌 정의센터’는 지난해 11월 발표한 보고서에서 “민주주의의 실험실이라 불리는 주의회에서 AI의 위협에 대처하는 방법에 대해 영감을 줄 수 있을 것”이라고 썼다. AI 연구 선도자이자 구글 딥마인드의 공동 창업자인 무스타파 술레이만은 새 저서 ‘다가오는 물결’에서 “AI를 통제하는 것은 거의 불가능하다”고 주장했다. 술레이만은 AI의 결함이 발생하는 이유를 정부가 파악해야 하고 AI가 폭주할 때 전원을 끌 수 있는 제동장치를 마련해야 한다고 썼다.이언 브레머 스탠퍼드대 교수는 지난해 포린어페어스 기고문에서 “AI는 기존 세계 권력의 구조를 뒤흔들고 어떤 경우에는 권력을 공고히 할 수 있다”면서 “민주주의 국가에서 개인정보를 동의 없이 무분별하게 수집해 상업적으로 활용하는 속도는 더 빨라지고, 권위주의 정부가 사상과 표현의 자유를 억압하는 도구로 악용될 수 있다”고 지적했다. 이어 “AI를 규제하지 않으면 국가는 민주주의를 유지하고 공공재를 제공해야 한다는 사회적 합의의 정당성을 잃는다”고 경고했다. AI가 제멋대로 만들어 낸 ‘환각 현상’과 허위조작정보의 위협에 맞서기 위해서는 전통적으로 민주주의 사회 공론장에서 ‘팩트체커’ 구실을 해 온 레거시미디어의 역할이 강조된다. 아서 설즈버거 뉴욕타임스 발행인은 컬럼비아저널리즘리뷰 기고문 ‘저널리즘의 본질적 가치’에서 “언론은 새롭게 취재한 사실을 다양한 방식으로 교차 검증하는 게이트키핑 시스템을 지키고, 공정과 이해충돌 방지 원칙을 준수했는지, 편견과 차별의 관점을 걸러 냈는지 프로세스를 거친다”면서 “잘못된 정보가 민주주의의 근간을 흔드는 이 시대에 언론이야말로 세상에 꼭 필요한 자양분”이라고 강조했다. 크렙스·크리너 교수의 강조점은 문해력 향상이다. 이들은 “안타깝게도 인터넷 세상은 거대한 확증편향 기계”라며 “객관적 사실을 포기하거나 뉴스에서 사실을 분별하는 능력을 포기하면 민주주의 사회가 기반해야 하는 신뢰가 무너질 수 있다”고 꼬집었다. 이어 제대로 걸러진 미디어를 통한 디지털 리터러시(지식과 정보를 이해하는 능력)의 필요성을 언급하며 “시민들이 다양한 언론 매체를 ‘신뢰하되 검증하는 방식’으로 콘텐츠의 진실성을 가리는 눈과 가짜뉴스를 맹신하지 않는 비판적 사고력을 길러야 한다”고 부연했다.
  • [단독] 칭찬은 AI도 춤추게 한다… ‘질문의 품격’ 높여 AI를 지휘하라 [AI 블랙홀 시대-인간다움을 묻다]

    [단독] 칭찬은 AI도 춤추게 한다… ‘질문의 품격’ 높여 AI를 지휘하라 [AI 블랙홀 시대-인간다움을 묻다]

    “안녕, 나는 인공지능(AI) 기초 교과를 담당하는 교수야.”(김성도 서울사이버대 드론·로봇융합학과 교수) “안녕하세요! 인공지능 기초를 담당하시는 교수님, 어떻게 도와 드릴까요?”(챗GPT) “너는 지금부터 나의 조교처럼 행동해 주길 바라.”(김 교수) “네, 교수님. 조교 역할을 맡겠습니다. 교육과 관련된 도움이 필요하시면 말씀해 주세요.”(챗GPT) “인공지능이 무엇인지 학생들이 알기 쉽게 설명해 줬으면 해. 아주 쉬운 용어로 설명해 주길 바라.”(김 교수) “알겠습니다. 교수님. 인공지능에 대한 기본적인 개념을 쉽게 설명해 드리겠습니다.”(챗GPT) #몰라요를 모르는 AI질문 초기 역할 부여답변의 방향성 설정 평소 생성형 AI 챗GPT를 수업 조교처럼 쓰는 김 교수는 챗GPT에게 무언가를 물어볼 때 이런 식으로 대화를 한다. 인간과 기계의 상호작용이긴 하지만 마치 사람과 대화를 하듯 감정을 이입하고 논리적으로 설명을 하면 챗GPT로부터 훨씬 더 좋은 결과물을 이끌어 낼 수 있다는 게 김 교수의 설명이다. 챗GPT에게 ‘인공지능은 무엇인가?’라고 곧바로 물어봤을 때와 결과물을 비교하니 답변이 확연히 달랐다. 4~5개월 전 챗GPT를 처음 접한 뒤 자신만의 활용법을 체득한 김 교수는 2일 “챗GPT는 모르는 걸 모른다고 하지 않는다. 그게 사람 조교와의 큰 차이”라고 말했다. 그러면서 “챗GPT에게 ‘네가 지금 어떤 역할을 수행하기를 기대한다’고 질문 초기 단계에 ‘역할 부여’를 하면 답변의 방향성, 한계가 설정된다”고 덧붙였다. 챗GPT로 대표되는 생성형 AI 시대가 열리면서 인간과 AI의 대화법이 주목받고 있다. 사용자가 조그마한 대화창을 통해 질문을 하면 AI가 답변을 하는 구조이지만 질문하는 방법, 수준에 따라 답변의 품질이 달라진다. 프롬프트(명령어)를 작성하는 능력이 중요해졌다는 얘기가 나오는 것도 이 때문이다. 질문의 기술이 아닌 질문의 격, 깊이, 맥락이 핵심 능력으로, 이는 해당 분야에 대한 ‘내공’을 쌓아야만 가능한 일이다.#호모 프롬프트 등장생성형AI와 친숙한 신인류‘질문 디자인’ 능력 중요 생성형 AI를 능숙하게 사용하면서도 AI에 미흡한 부분을 창의적으로 보완해 나갈 수 있는 인문학적 문해력을 갖춘 사람을 ‘호모 프롬프트’라고 부르기도 한다. ‘트렌드 코리아 2024’ 공저자인 이향은 LG전자 상무는 “앞으로 사람들은 손안에 ‘정답 자판기’를 들고 있을 것이다. 질문을 다르게 할 수 있는 역량이 필요하다”고 말했다. 컴퓨터 언어가 아닌 ‘일상의 언어’로 누구나 AI와 대화하는 시대가 도래하면서 질문을 디자인하는 창의력, 비판적 사고 능력, 사색력이 이전에 비해 더 중요해졌다는 의미다. 챗GPT를 사람 대하듯 하며 일을 지시할 경우 결과물이 더 좋다는 연구 결과도 있다. 구글 딥마인드가 대규모언어모델(LLM)을 대상으로 초등학교 수준의 수학 문제를 풀라고 하면서 “심호흡을 하고 이 문제를 단계적으로 풀어 보자”고 하자 정확도가 80.2%(구글 ‘팜2’ 기준)를 기록했다. 챗GPT와 대화하면서 ‘잘했어’, ‘좋아’라고 칭찬을 해 주면 답변 품질이 더 좋아진다는 주장도 있다. 유용균(한국원자력연구원 인공지능응용연구실장) Al프렌즈 대표는 “생성형 AI의 학습 원리는 책을 읽고 난 뒤 그다음 단어를 예측하는 것으로, 엄청나게 많은 데이터를 학습하다 보니 논리 구조나 문맥도 이해를 한다”면서 “AI와 일하는 것도 사람과 비슷한 면이 많다. AI에게 정확하게 역할을 부여하고 체계적으로 지시를 내리는 게 중요하다”고 말했다. #할루시네이션 걸러라그럴듯한 오답들 쏟아내‘AI 오류’ 거를 능력 필요 AI가 내놓은 답을 검증할 수 있는 능력도 중요해졌다. 특히 환각 현상으로 불리는 ‘할루시네이션’(AI가 정보를 처리하는 과정에서 그럴듯한 오답을 내놓는 현상)을 걸러 낼 줄 아는 게 실력이 됐다. 하지만 전문가가 아니면 제대로 된 답변을 했는지 알아차리기가 쉽지는 않다. 한 대학교수가 지난해 2학기 강의를 준비하면서 챗GPT에게 ‘가족이라는 체계는 마치 하나의 모빌(유아용 흔들개비 장난감)과 같다고 말한 사람이 누구이며, 그 출처는 무엇인가’라고 묻자 “윌리엄 제임스의 저서 ‘심리학의 원리’에 나온 비유 중 하나입니다”라고 답했다. 뭔가 잘못됐다고 생각한 이 교수는 다시 ‘윌리엄 제임스의 책 몇 페이지에 쓰여 있느냐’고 물었고 챗GPT는 “해당 책의 310쪽에 나옵니다”라고 천연덕스럽게 답했다. 그러면 ‘이 비유를 구체적으로 어떻게 표현했는지 원문을 제시해 달라’고 하자 그제야 “제가 언급한 내용에 오류가 있었습니다. 심리학의 원리에는 ‘가족이라는 체계는 마치 하나의 모빌과 같다’는 특정 문구나 비유가 포함돼 있지 않습니다”라고 잘못을 인정했다고 한다.
  • “국가 경쟁력 좌우할 韓 AI 기술 ‘상위권’… 맞춤형 지원·제도 절실”

    “국가 경쟁력 좌우할 韓 AI 기술 ‘상위권’… 맞춤형 지원·제도 절실”

    ‘챗GPT’가 생성형 인공지능(AI) 시대를 열자 세계 주요 정보기술(IT) 기업들의 관련 기술 경쟁이 날로 치열해지고 있다. AI는 모든 산업에 적용돼 우리 생활을 완전히 변화시킬 수 있는 기술이기 때문에 국가 경쟁력과도 직결된다. 이에 한국 AI가 윤리성과 신뢰성을 확보하면서도 글로벌 경쟁에서 뒤처지지 않도록 할 정책적 지원이 절실하다는 목소리가 높다. 지난 14일 한국프레스센터에서 서울신문이 주최하고 문화체육관광부가 지원하는 ‘글로벌 AI 동향 및 AI 윤리·신뢰성 확보 방안’이라는 주제의 전문가 좌담회가 열렸다. 좌담회엔 엄열 과학기술정보통신부 AI기반정책관, 이상용 건국대 법학전문대학원 교수, 성주원 KT AI테크랩 상무, 김명신 LG AI연구원 정책수석이 참석했다.-한국 기업의 AI 기술 수준은. 김명신 “미국이 압도적으로 1등이고 중국이 2등, 한국이 6등인데 3~10위는 사실 격차가 거의 없다. 우리나라 AI 기술 경쟁력이 세계 상위권이라는 것은 의심할 여지가 없다. 전 세계에 초거대 AI를 가지고 있는 나라가 손에 꼽힐 만큼 적기 때문에, 그중 하나라는 것만으로도 굉장히 큰 가능성을 가진 셈이다. 지금부터 각 기업이 전략을 어떻게 가져가고, 국가가 어떤 정책과 제도로 지원해 주거나 적절하게 규제하느냐에 따라 앞으로 각국 AI 경쟁력 차이가 급격히 벌어질 것이다. AI가 앞으로 국가 미래 경쟁력을 좌우하고 세상을 뒤집어 놓을 만큼 중요하기 때문에 기술 확보가 굉장히 중요하다고 생각한다.” 성주원 “같은 의견이다. 한국의 AI 기술력은 결코 세계에서 뒤지지 않는다. 우수한 인적 자원을 보유했으며 대기업 위주로 진행된 과감한 투자가 결실을 보이기 시작했다. 다만 그동안 글로벌 시장에서 국내 기업들이 ‘한국어 AI는 우리가 1등’이라는 논리로 계속 얘기를 해 왔는데, 챗GPT를 비롯해 여러 가지 AI가 나오는 상황에서 대체 언제까지 ‘우리가 한국어 AI는 1등’이라고 말할 수 있을지 모르겠다. AI는 정말 투자한 만큼 결과가 나온다고 생각한다. 자금력 있는 국내 대기업의 투자도 중요하지만 국가적 차원의 대형 투자가 이뤄져야 뒤처지지 않을 것으로 본다.”-정부가 올해를 ‘AI 일상화 원년’으로 선포한 만큼 이미 지원책도 적지 않을 듯한데. 엄열 “한국은 독자적으로 초거대 AI를 보유한 5대 국가(미국, 중국, 한국, 이스라엘, 영국) 중 하나로 평가받고 있다. 국가의 생태계 조성과 청사진에 기업의 노력이 동반된 결과다. 하지만 구글이 더 정교한 초거대 AI ‘제미나이’를 출시하는 등 빅테크 주도의 생성 AI 기술 혁신은 더 빨라질 것이다. 이들과 경쟁할 국내 기업의 상황이 더 어려워질 것으로 예상되기 때문에 정부가 적극 지원할 것이다. 연구개발(R&D)비 지원, 초거대 AI 프로젝트 맞춤 지원이 있고 국가가 보유한 데이터를 AI 학습용으로 지원한다. 기업이 AI로 수익화할 서비스를 만드는 것도 도울 방침이다.”-유럽연합(EU)이 포괄적인 AI 규제 법안에 합의했다. 우리나라 AI 법 제정 상황은. 이상용 “각 나라의 제도는 다 배경이 있다. 각자가 처한 상황들이 다르고 이에 속셈도 제각각이다. 그래서 ‘이 나라는 이런 법을 갖고 있으니 우리도 그걸 따라해야 한다’고 단순하게 접근하면 곤란하다. 우리 상황에 맞는 제도를 만들어야 한다. 예컨대 EU의 AI법같이 굉장히 포괄적이고 경직된 제도는 우리나라에선 피해야 한다. 미국은 ‘자율 규제’다. 백악관에서 ‘AI 행정명령’이 나왔는데 기업이 쌍수를 들고 환영했다. 내용을 보면 산업 진흥을 위한 정책이 압도적으로 많다. 정부가 사전에 기업의 의사를 듣고 협의했다는 얘기다. 영국의 경우가 흥미로운데 혁신이 우선이고 AI에 어떤 위험성이 있는지는 일단 살펴보자는 태도다. 사전에 적합성 평가를 해서 안전한지 확인된 다음에 출시하라고 규정한 EU와는 반대의 입장이다.” 엄열 “EU AI법은 AI를 위험성에 따라 4가지로 분류하고 이에 따른 책무를 엄격하게 부여한 뒤 따르지 않으면 경제 제재까지 하는 아주 강력한 규제다. 한국은 한국 상황에 맞는 법을 만들어야 하는데 지금 정부가 발의한 AI 법 초안이 국회에 가 있다. 일단 시장 상황을 좀 바라보고,나중에 필요하면 ‘사후 규제’로 가겠다는 입장의 법체계다. AI 기술 발전과 신뢰성을 모두 확보하려는 정부의 입장이 균형 있게 잘 정리돼 있다고 본다. 법안의 조속한 국회 통과를 위해 정부도 적극 지원하겠다.” -제도나 규제만으로 AI의 윤리성과 신뢰성을 확보하진 못할 것 같다. 기업은 뭘 하고 있나. 김명신 “AI가 학습하는 데이터가 편향되거나 대표성이 결여됐을 때 의도치 않게 차별적, 편향적 결과물이 나올 수 있다. AI 모델은 정확한 답변보다 사람이 말하는 것처럼 유려한 답변을 많이 하도록 만들어진 탓에 가끔 틀린 답변을 참인 것처럼 내놓는 ‘환각현상’(할루시네이션)을 일으킨다. 앞선 두 문제가 모두 해결돼도 사용자가 나쁜 의도를 가지면 굉장히 큰 문제를 일으킬 수 있다. 기업은 이렇게 데이터, 모델, 사용자 등 3개의 축으로 접근해 문제 발생을 방지하려 노력한다. 기획 단계부터 데이터를 수집, 정제하고 모델을 개발해 사용자에게 배포하는 단계까지 문제 발생 예방책을 실행해 AI가 잘못된 결과를 생성하지 않도록 조직과 절차를 갖추는 것이 필요하다.”성주원 “구축한 AI 모델을 의도적으로 외부에서 공격해 편향된 답을 하지는 않는지, 시스템에 문제는 없는지를 파악하는 ‘레드팀’을 구성해 운영하고 학습할 데이터를 엄격하게 선별하는 등 각사가 하는 방향과 노력이 거의 비슷하다고 본다. 그렇다고 해도 할루시네이션을 100% 해결할 수는 없다. AI를 윤리적으로 잘 활용해야 한다는 데 대해서도 범국민적 공감대가 형성돼야 한다.” -최근 국제사회가 AI 규범을 마련하려는 움직임이 있다. 각국의 이해관계가 다른데 국제 규범이 의미가 있을지.김명신 “앞서 말씀해 주신 것처럼 미국 중심, 유럽 중심, 중국 중심으로 각각 색깔이 다른 규제들이 만들어지고 있는데 기업 입장에선 나라마다 규제가 다르면 그걸 전부 모니터링해 분석하고 대응해야 하는 이중, 삼중의 부담이 생길 수밖에 없다. 최악의 경우 지역마다 다른 모델을 개발하느라 천문학적 비용을 지출해야 할 수도 있다. 국제사회 차원의 보편적인 AI 규범이 만들어지면 기업 입장에선 가장 명확한 기준이 돼서 좋을 것 같다.” 엄열 “정부도 국제 규범 체계를 같이 논의할 수 있는 기구가 필요하다는 입장이고 그 가운데서 리더십을 발휘하겠다는 의지를 갖고 있다. 그래서 유엔 산하나 별도의 독립 기구를 만들어야 한다고 국제사회에서 주장하고 있다. 영국과 미국이 ‘AI 안전성 연구소’라는 걸 만들었는데 아시아 쪽에선 우리가 한번 주도적으로 만들 수 있지 않은지 검토하고 있다.”
  • 챗GPT, 라마와 나란히… 업스테이지 ‘솔라’ 글로벌 플랫폼 메인에 등록

    챗GPT, 라마와 나란히… 업스테이지 ‘솔라’ 글로벌 플랫폼 메인에 등록

    국내 인공지능(AI) 스타트업 업스테이지의 대규모언어모델(LLM) ‘솔라(SOLAR)’가 ‘챗GPT’(오픈AI), ‘라마’(메타)와 나란히 글로벌 생성 AI 활용 플랫폼 ‘Poe’에 메인 모델로 등록됐다. 업스테이지의 솔라는 세계 최대 AI 플랫폼 허깅페이스에서 챗GPT를 앞질러 1위를 차지한 업스테이지의 LLM을 기반으로 개발됐다. Poe는 글로벌 지식 서비스 쿼라가 운영하고 있으며 원하는 프롬프트를 입력해 나만의 챗봇을 만들 수 있는 글로벌 대표 생성 AI 플랫폼이다. Poe에서는 유명 LLM 모델뿐 아니라 개인들이 만드는 모델들을 포함 수천 개의 생성AI 모델들을 활용할 수 있는데, 솔라는 메인 페이지에서 바로 볼 수 있어 접근성이 높은 메인 공식 모델로 등록됐다. 그동안 Poe의 메인 모델 리스트엔 챗GPT, 구글의 팜, 라마, 엔트로픽의 클로드 등 4개사의 LLM만 올라가 있었다. 솔라의 메인 모델 추가는 국내 LLM으로는 최초다. 솔라는 도메인 특화와 최적화에 촛점을 맞추고 기업 데이터를 학습, 정보 유출과 환각 현상을 방지할 수 있는 프라이빗 LLM을 지향한다. 솔라를 기반으로 한 프라이빗 LLM은 기업의 특성과 요구사항에 맞게 맞춤형으로 구축되며, 경량화된 모델 사이즈로도 더 뛰어난 성능을 제공할 예정이다. 이를 통해 기업들은 정확도와 보안을 높이면서도 도입 및 운용 비용을 크게 절감할 수 있다. 최근 업스테이지의 프라이빗 LLM은 커넥트웨이브, 롯데쇼핑과 생성 AI 서비스 적용을 협력하는 등 주목받고 있다. 이커머스와 유통업계에서는 솔라 모델을 활용, 고객 맞춤형 마케팅, AI 기반 고객 상담, 수요 예측 기반 자동 발주 시스템 등을 적용할 계획이다. 김성훈 업스테이지 대표는 “솔라는 국내 AI 스타트업의 기술력과 잠재력을 보여주는 대표적인 사례라고 생각한다”며 “Poe와의 협력을 통해 솔라를 글로벌 시장에 소개하고, 다양한 분야에서 프라이빗 LLM 서비스를 제공할 수 있도록 노력할 것”이라고 밝혔다.
  • 한국형 챗GPT ‘클로바X’의 한계…거짓 정보 할루시네이션 못 피해[경제 블로그]

    한국형 챗GPT ‘클로바X’의 한계…거짓 정보 할루시네이션 못 피해[경제 블로그]

    네이버가 지난 24일 베타 버전으로 출시한 대화형 인공지능(AI) 서비스 ‘클로바X’는 한국형 챗GPT로 큰 관심을 받고 있다. 사용기를 종합해 보면 해외 AI 챗봇들에 비해 한국어를 월등히 잘하고 한국 문화, 국내 최신 정보에 강하지만, 역시 피해 갈 수 없는 약점인 환각(할루시네이션) 현상도 나타난다. 환각 현상은 대규모언어모델(LLM)이 거짓 정보를 마치 사실인 것처럼 그럴듯하게 말하는 것을 의미한다. 네이버를 포함해 생성형 AI 서비스를 출시하는 회사 대다수는 이 현상을 ‘줄였다’고 밝히지만, ‘없앴다’고는 말하지 못한다. 환각 현상은 대화형 AI 서비스 기반이 되는 LLM에 아직까지는 필연적으로 존재할 수밖에 없기 때문이다. 언어 모델은 문장 내에서 단어들 사이의 관계를 파악하고 텍스트가 어떻게 이어져야 하는지를 추론해 문장을 이어 나가는 기술이라고 생각하면 쉽다. 그런데 이 모델의 학습 초점은 내용의 맞고 틀림을 분간하는 것보다 사람처럼 자연스럽게 말하는 데 있다. 할루시네이션은 이런 모델의 특성 때문에 일어난다. 앞에 제시된 단어나 문장 뒤에 더 자연스러운 단어를 선택해 이어 붙이는 식인데, ‘거짓’인 단어가 ‘참’인 단어보다 통계적으로 더 자연스러우면 선택될 수 있다. 예를 들어 미 항공우주국(NASA)의 제임스웹 망원경이 찍은 첫 번째 태양계 밖 행성 사진에 관한 기사와 텍스트 자료가 많다 보니 지난 2월 구글의 ‘바드’는 태양계 밖 행성을 찍은 역사상 첫 번째 사진을 이 망원경이 찍은 것처럼 말을 만들어 냈다. 이런 현상이 나타나서 오히려 AI에 대한 두려움이 다소 줄어들거나 맹신을 차단하는 순기능도 있었다. 하지만 실용적인 분야에 사용할 때 환각 현상이 발생하면 곤란하다. AI의 답변을 믿고 중요한 손님을 모시고 찾아간 식당이 실제로는 존재하지 않는 곳이라면 얼마나 난감할까. 다행히 네이버가 다음달 베타 출시하는 대화형 AI 검색 서비스 ‘큐’(Cue:)는 클로바X와는 작동 방식이 다르다. 네이버 측의 설명에 따르면 클로바X는 기반 모델인 하이퍼클로바X와 대화하는 서비스이고, 큐는 모델에게 검색을 시키는 서비스다. 여기에 3단계 기술을 적용해 환각 현상을 72% 줄였다고 한다. 기본 모델을 사용 목적에 맞게 미세 조정하는 파인튜닝도 할루시네이션을 줄이는 데 효과적이다. LG AI연구원이 최근 발표한 전문가용 대화형 AI 서비스는 검증된 논문만을 학습해 할루시네이션을 최소화했다고 한다.
  • 진화한 LG 초거대 AI, 신소재·신물질·신약 개발 확 앞당긴다

    진화한 LG 초거대 AI, 신소재·신물질·신약 개발 확 앞당긴다

    ‘챗GPT’(AI 챗봇)나 ‘미드저니’(이미지 생성 AI) 등을 통해 대중에 친숙해진 생성형 인공지능(AI)은 자칫 대화를 나누거나 그림을 그려 주는 가벼운 서비스 정도로 인식되기 쉽다. 하지만 생성 AI를 전문 분야에서 활용할 수 있도록 고도화한 서비스가 국내에서도 속속 공개되고 있다. LG AI연구원이 19일 서울 강서구 마곡 LG사이언스파크에서 소개한 ‘엑사원 디스커버리’는 화학·바이오 분야 발전을 앞당길 신소재·신물질·신약 개발 플랫폼이다. AI를 활용한 신약 개발은 개발 기간을 줄이고 비용을 낮춰 수조원대 신약 개발 투자 능력을 갖춘 글로벌 ‘빅파마’와의 격차를 줄일 수 있다. 제약바이오 산업의 ‘힘의 논리’를 바꿀 수 있는 힘을 가진 AI 신약 개발에 국내 업계가 집중하는 이유다. 엑사원 디스커버리는 이미지와 언어 등 여러 정보를 동시에 처리하는 멀티모달 AI 기술을 활용해 전문 문헌의 텍스트와 분자 구조, 수식, 차트, 테이블, 이미지 등을 데이터베이스화하는 기술을 적용했다. 연구원은 소재 구조 설계, 소재 합성 예측이 가능한 엑사원 디스커버리로 40개월이 걸리는 연구개발 기간을 5개월로 단축할 수 있을 것으로 예상했다. 앞서 카카오브레인 AI신약연구팀은 단백질 구조 예측 프레임워크 ‘솔벤트’를 공개했다. 솔벤트는 글로벌 기업의 단백질 구조 예측 AI보다 최소 3배 이상 빠른 속도로 단백질 구조를 예측할 수 있다. 이날 ‘AI 토크콘서트’를 연 LG AI연구원의 배경훈 원장은 공개된 플랫폼들에 관해 “LG 계열사, 전문 파트너사 중심으로 실질적인 산업 현장에서 사례를 만드는 데 집중하고 있다”고 설명했다. 일반인이 아닌 전문 분야 종사자들이 엑사원 2.0을 통해 더 빠르고 편리하게 각 분야에 특화된 ‘전문가 AI’를 사용할 수 있도록 개발했다는 얘기다. ‘엑사원 유니버스’는 전문가의 지식 생산·소비를 위해 만들어진 대화형 AI 플랫폼이다. 엑사원 유니버스는 전문성이 필요한 분야의 질문에 대해 거짓을 사실처럼 말하는 ‘헐루시네이션’(환각) 현상 없이 근거에 기반한 정확한 답변을 생성한다. ‘엑사원 아틀리에’는 그룹 내외부 전문 디자이너를 대상으로 한 서비스를 준비 중이다. 창의적 발상을 돕는 엑사원 아틀리에는 이미지를 언어로 표현하고 언어를 이미지로 시각화하는 멀티모달 AI 플랫폼이다. 저작권을 확보한 이미지와 텍스트가 짝을 이룬 3억 5000만장의 데이터를 학습한 엑사원 2.0을 기반으로 이미지 생성과 이해에 특화된 기능을 제공한다. 배 원장은 “LG는 국내에서 유일하게 이중 언어 모델과 양방향 멀티모달 모델을 모두 상용화한 기업”이라면서 “세상의 지식을 이해하고 발견하는 상위 1%의 전문가 AI를 개발하고 있다”고 말했다.
  • 생성 AI, 장난감 아냐… LG ‘전문가 AI’ 엑사원2.0 공개

    생성 AI, 장난감 아냐… LG ‘전문가 AI’ 엑사원2.0 공개

    생성형 인공지능(AI) 서비스는 ‘챗GPT’(AI 챗봇)나 ‘미드저니’(이미지 생성 AI) 등을 통해 대중에 친숙해진 나머지, 자칫 채팅이나 그림 그려주는 가벼운 서비스 정도로 인식되기 쉽다. 하지만 국내에서도 생성 AI를 전문가들이 활용할 수 있도록 고도화한 서비스가 속속 공개되고 있다. LG AI연구원이 19일 서울 강서구 마곡 LG사이언스파크에서 소개한 ‘엑사원 디스커버리’는 화학·바이오 분야 발전을 앞당길 신소재·신물질·신약 개발 플랫폼이다. AI를 활용한 신약개발은 개발기간을 줄이고 비용을 낮춰 수조원 대 신약 개발 투자 능력을 갖춘 글로벌 ‘빅파마’와의 격차를 줄일 수 있다. 제약바이오 산업의 ‘힘의 논리’를 바꿀 수 있는 힘을 가진 AI 신약 개발에 국내 업계가 집중하는 이유다. 엑사원 디스커버리는 이미지와 언어 등 여러 정보를 동시에 처리하는 멀티모달 AI 기술을 활용, 전문 문헌의 텍스트와 분자 구조, 수식, 차트, 테이블, 이미지 등까지 데이터베이스화하는 기술을 적용했다. 연구원은 엑사원 디스커버리로 AI와 대화하며 전문 문헌을 검토하고, 소재 구조 설계, 소재 합성 예측이 가능해 40개월이 걸리는 연구개발을 5개월로 단축할 수 있을 것으로 예상했다. 앞서 카카오브레인 AI신약연구팀은 단백질 구조 예측 프레임워크 ‘솔벤트’를 공개했다. 솔벤트는 글로벌 기업의 단백질 구조 예측 AI보다 최소 3배 이상 빠른 속도로 단백질 구조를 예측할 수 있다. 디스커버리, 연구개발 기간 8분의 1로 단축유니버스, 전문 문헌 바탕 근거있는 답변만아틀리에, 디자이너가 활용 가능 서비스엑사원2.0 기존 모델 성능에 비용 78% 절감 이날 ‘AI 토크 콘서트’를 연 LG AI연구원의 배경훈 원장은 공개된 플랫폼들에 관해 “LG 계열사, 전문 파트너사 중심으로 실질적인 산업현장에서 사례를 만드는 데 집중하고 있다”고 설명했다. 일반인이 아닌 전문 분야 종사자들이 엑사원 2.0을 통해 더 빠르고 편리하게 각 분야에 특화된 ‘전문가 AI’를 사용할 수 있도록 개발했다는 얘기다. ‘엑사원 유니버스’는 전문가의 지식 생산·소비를 위해 만들어진 대화형 AI 플랫폼이다. 일반인이 사용하는 AI 챗봇은 실제 사람처럼 말할 수 있는 능력에 개발 초점이 맞춰져, 거짓도 사실인 것처럼 말하는 환각(할루시네이션) 현상이 자주 일어난다. 이는 초거대 언어 모델의 고질적인 맹점으로, AI가 표출한 결과를 신뢰하기 어렵게 만든다. 이에 반해 엑사원 유니버스는 전문성이 필요한 분야 질문에 대해 근거에 기반한 정확한 답변을 생성한다. 사전 학습한 데이터는 물론 각 분야 최신 전문 데이터까지 포함해 근거를 찾아내며 추론한 답변을 제시한다.‘엑사원 아틀리에’는 그룹 내외부 전문 디자이너를 대상으로 서비스를 준비 중이다. 창의적 발상을 돕는 엑사원 아틀리에는 이미지를 언어로 표현하고 언어를 이미지로 시각화하는 멀티모달 AI 플랫폼이다. 단순 이미지 생성·설명이 아니라, 마케팅 문구나 동화 같이 창의적인 글쓰기도 가능하다. 2021년 12월 처음 선보인 초거대 AI 엑사원에서 한 단계 진화한 엑사원 2.0은 파트너십을 통해 확보한 특허와 논문 등 전문 문헌 약 4500만건과 이미지 3억 5000만장을 학습했다. 특히 초거대 AI의 고비용 문제를 해결하기 위해 멀티모달 모델 경량화에 초점을 맞췄다. LG AI연구원에 따르면 엑사원 2.0의 언어 모델은 기존 모델과 같은 성능을 유지하면서도 추론 처리 시간은 25% 단축하고 메모리 사용량은 70% 줄여 비용을 약 78% 절감했다. 멀티모달 모델은 이미지 생성 품질을 높이기 위해 기존 모델보다 메모리 사용량이 2배 늘어났지만 추론 처리 시간을 83% 단축해 비용은 약 66% 절감했다. 연구원은 엑사원을 활용해 상용화한 대표 사례인 LG전자 AI 컨택센터(AICC)도 하반기 중 정식 서비스로 전환하고, 내년부터 영어권 국가로도 운영을 확대할 계획이다. 배 원장은 “LG는 국내에서 유일하게 이중 언어 모델과 양방향 멀티모달 모델을 모두 상용화한 기업”이라면서 “세상의 지식을 이해하고 발견하는 상위 1%의 전문가 AI를 개발하고 있다”고 말했다.
  • 업스테이지, 과기정통부 AI 기업 릴레이 방문 첫번째 낙점

    업스테이지, 과기정통부 AI 기업 릴레이 방문 첫번째 낙점

    인공지능(AI) 기술 기업 업스테이지가 과학기술정보통신부의 AI 대표기업 릴레이 방문의 첫번째 대상으로 낙점돼, 15일 만남을 가졌다. 업스테이지는 이날 ‘AI 윤리·신뢰성 확산 위한 과기정통부 AI 대표기업 릴레이 방문’을 위해 경기 용인 연구소를 방문한 박윤규 제2차관에게 기업 및 솔루션을 소개하고 AI 윤리·신뢰성 확보 경험을 공유했다고 밝혔다. 행사에는 박 차관 외에도 과기정통부 최동원 인공지능기반정책과장, 이강해 한국정보통신기술협회 단장, 곽준호 팀장이 방문했다. 업스테이지 측에선 이활석 최고기술책임자(CTO), 한지윤 데이터팀 리더, 손해인 마케팅팀 리더가 참석했다. 이 CTO는 업스테이지의 대표 AI 솔루션 ‘다큐먼트 AI팩’과 120만명이 활용하는 AI 챗봇 ‘아숙업(AskUp)’에 추천·검색 서비스를 접목한 ‘아숙업 써제스트(Seargest)’를 소개하고 서비스를 시연했다. 참석자들은 서비스 시연 뒤 AI 윤리·신뢰성 확보 경험을 공유했다. 박 차관은 “AI 기술 개발부터 활용의 모든 단계에서 윤리와 신뢰성을 확보하는 것이 산업발전의 전제조건이 되고 있다”며 “국내 기업이 자사 제품 및 서비스에 인공지능 윤리·신뢰성을 선제적으로 확보할 수 있도록 현장에 방문해 경청하고 인공지능 윤리·신뢰성 확산에 앞장서 나가겠다”고 밝혔다. 이 CTO는 “생성AI 시대가 열리며 챗GPT의 환각현상(할루시네이션)과 혐오 발언등으로 AI 윤리와 신뢰성에 대한 논의가 가속화 되고 있다”며 “업스테이지는 선도적인 AI 기술을 바탕으로 이번 행사를 포함 민관 논의 등 다양한 노력을 지속할 것”이라고 밝혔다.
위로