찾아보고 싶은 뉴스가 있다면, 검색
검색
최근검색어
  • AI 오류
    2026-02-14
    검색기록 지우기
  • 707
    2026-02-14
    검색기록 지우기
저장된 검색어가 없습니다.
검색어 저장 기능이 꺼져 있습니다.
검색어 저장 끄기
전체삭제
499
  • 獨 ‘빌트’ 편집업무 AI 대체

    獨 ‘빌트’ 편집업무 AI 대체

    “교정·인쇄 인력 등 존재 않을 것”獨언론인협회 “반사회적인 판단” 유럽에서 가장 많은 판매 부수를 자랑하는 독일 타블로이드 신문 ‘빌트’가 편집 업무를 인공지능(AI)으로 대체하겠다고 밝혔다. 20일(현지시간) 영국 일간 가디언 등 언론매체에 따르면 모회사인 악셀 슈프링어는 빌트 직원들에게 보낸 이메일에서 1억 유로(약 1406억원)에 이르는 경비 절감대책으로 AI를 고용하겠다고 발표했다. 악셀 슈프링어는 “디지털 시대에 AI나 자동화 프로세스로 대신할 수 있는 작업을 하는 동료들과 동행하기 힘들 것 같다”고 밝혔다. 회사 측은 편집자, 보조 편집자, 인쇄 제작 지원, 교정자, 사진 편집자의 역할이 더이상 오늘날처럼 존재하지 않을 것이며, 지방 사업 조직에 대한 재정비도 준비 중이라고 직원들에게 알렸다. 이에 대해 독일언론인협회는 “직원들을 겨냥한 반사회적인 판단이며 경제적 측면에서도 극도로 어리석은 결정으로 그룹의 ‘캐시카우’(현금 창출원)를 학살할 것”이라고 비판했다. 빌트는 AI 도입 후 감원 규모를 밝히지 않았다. 가디언은 수백명의 해고로 이어질 수 있다고 봤다. 빌트의 경쟁지 프랑크푸르터 알게마이네 차이퉁(FAZ)은 빌트가 편집 관련 인력을 200명쯤 줄이는 방안을 추진하고 있다고 전했다. 이번 계획은 악셀 슈프링어를 이끄는 마티아스 되프너 최고경영자(CEO)가 지난 2월 “순수한 디지털 미디어 회사로 전환하겠다”고 선언한 데 따른 것이다. 되프너 CEO는 “챗GPT와 같은 AI 도구들이 독립적인 저널리즘을 이전보다 더 낫게 만들거나 대체할 것”이라면서 “AI가 곧 정보 집계에서 인간 저널리스트를 앞지를 수 있다”고 말했다. 미국 온라인매체 버즈피드, 영국의 타블로이드 신문 데일리미러와 데일리 익스프레스도 AI를 이용한 콘텐츠 생산 계획을 내놓았다. 이를 두고 가디언은 “챗GPT와 같은 AI 도구가 제공하는 응답은 때때로 부정확하거나 조작될 위험이 있다”고 지적했다. 지난 1월 미국 테크 전문 매체 시넷(Cnet)은 AI가 작성한 기사를 송출했지만 절반 이상이 오류로 밝혀진 뒤 한계를 인정했다. 4월엔 독일의 여성 주간지 다이 악투엘레가 국제 자동차 경주 챔피언인 ‘레이싱 황제’ 미하엘 슈마허(54)와의 인터뷰를 게재했는데, AI 챗봇으로 완전히 조작됐다는 게 밝혀졌다. 슈마허는 2013년 프랑스 알프스에서 스키를 타다가 사고를 당해 현재 치료에 전념하며 외부 접촉을 차단한 상태다. 매체는 발행인을 해고하고 슈마허 가족에게 사과했다.
  • [기고] 나는 AI에게 설명을 요구한다/김철웅 금융보안원장

    [기고] 나는 AI에게 설명을 요구한다/김철웅 금융보안원장

    17세기 최고의 수학자 페르마는 유명한 난제인 ‘페르마의 마지막 정리’ 하단에 이런 주석을 적어 뒀다. “나는 실로 놀라운 증명법을 발견했다. 하지만 여백이 부족해 적지 않겠다.” 페르마가 설명도 없이 정리만 남기고 세상을 떠난 탓에 장장 360년에 가까운 세월 동안 많은 수학자가 골머리를 앓았다. 요즘 말로 페르마는 학계에 관심을 끌 만한 답만 던지고는 ‘안알랴줌’을 감행한 셈이다. 그런데 곰곰이 생각해 보면 페르마만 그런 것이 아니다. 최근 관심을 독식하는 인공지능(AI)도 ‘안알랴주는 것’은 매한가지다. 올해는 생성형 AI의 해라고 해도 과언이 아니다. 챗GPT의 등장으로 알파고 이후 시들했던 AI 관심이 다시 불붙었다. 문제는 실용화된 AI 대부분이 블랙박스 모형이라는 점이다. 질문에 답은 바로 나오는데, 답을 도출하는 과정은 알 수 없다. AI의 답변에 오류가 있는 경우도 잦다. “조선왕조실록에 기록된 세종대왕 맥북프로 던짐 사건을 알려 줘”라는 질문에 초기 챗GPT는 ‘세종대왕이 훈민정음 창제 중 문서 작성이 중단돼 분노한 나머지 맥북을 던진 사건’이라며 창의적인 오답을 내놨다. AI의 블랙박스 특성과 답변의 오류는 어쩔 수 없이 받아들여야만 하는 걸까. 아니다. 최근 AI 분야 전문가들은 AI의 의사결정 과정을 사람이 이해하기 쉽게 설명하는 기술에서 해결의 실마리를 찾고 있다. 이 기술을 설명 가능한 AI, 즉 XAI(eXplainable AI)라고 한다. 결과값만 출력하는 AI 모델에 그 대답에 대한 설명을 생성하는 인공지능 모델(XAI)을 덧붙여 기존의 블랙박스 특성을 해소하자는 것이다. AI의 특성을 걱정하던 금융권에는 희소식이다. 금융 분야에서는 보통 소비자보다 판매자에게 양질의 정보가 많고, 정보의 비대칭성이 금융 사고나 분쟁 등으로 이어지는 경우가 잦다. XAI는 금융 분야 AI가 직면한 설명 의무에 대한 합리적인 대안이 될 수 있다. AI가 활성화될수록 AI와 관계된 금융소비자 보호 요구는 늘어날 것이고, XAI의 역할도 중요해질 수밖에 없다. 금융소비자는 XAI를 통해 AI가 예측에 실패하거나 위험성이 높은 결정을 내리더라도 설명을 토대로 정보를 해석하고 선택할 수 있다. 금융사는 AI의 설명을 참고해 성능을 개선하고 더욱 고객 친화적인 AI 금융서비스를 제공할 수도 있다. 이에 금융보안원은 AI를 통한 의사결정으로부터 금융소비자를 보호하고 이용자 편익을 높이고자 XAI의 적용 범위, 요건 등을 담은 가이드라인 등을 준비 중이다. 사람은 앞으로도 AI에게 끊임없이 질문할 것이다. AI의 답이 항상 옳을 수는 없다. 옳은 답은 활용하고 그른 답은 개선하면 된다. 하지만 사람이 AI의 대답으로 의사결정을 한다면 결정에 대한 설명이 필요하다. 미래는 검색과 클릭의 인터넷 시대가 아닌 질문과 소통의 AI 시대다. 신뢰할 수 있는 AI 시대를 열어 가기 위해 나는 AI에게 설명을 요구한다.
  • 삼성전자 세계 첫 12나노 D램 양산… ‘초격차 기술’로 반등 시동

    삼성전자 세계 첫 12나노 D램 양산… ‘초격차 기술’로 반등 시동

    메모리 업황 악화에 고난의 시간을 보낸 삼성전자가 또다시 ‘초격차’ 기술력으로 시장 반등에 나선다. 제품 감산을 통한 2분기 재고 안정화에 이어 하반기부터 기업의 메모리 수요가 증가할 것으로 전망되면서 그간의 실적 하락을 단숨에 만회한다는 전략이다. 삼성전자는 18일 업계 최초로 12나노미터(㎚·1나노는 10억분의1m)급 공정을 적용한 5세대 D램 양산에 들어갔다고 밝혔다. 앞서 삼성전자는 D램 공정 고도화를 위해 재고를 충분히 확보한 기존 4세대 D램 생산량을 줄이면서 5세대 D램 생산에 집중한다고 밝힌 바 있다. 삼성전자는 메모리에서 확보한 미세 공정 기술력을 강조하기 위해 ‘12나노’라는 구체적 선폭을 공개했다. 이번 제품은 이전 세대 제품 대비 생산성이 약 20% 향상됐다. 소비 전력은 약 23% 개선돼 데이터센터 등을 운영하는 데 전력 운영 효율을 높일 수 있다. 삼성전자는 유전율(K)이 높은 신소재를 적용해 전하를 저장하는 커패시터의 용량을 늘렸다고 밝혔다. D램은 커패시터에 저장된 전하로 1과 0을 구분하기 때문에 커패시터 용량이 커지면 데이터 구분이 명확해지고 데이터가 명확하게 구분돼 오류가 발생하지 않는다. 최고 동작 속도는 7.2Gbps로, 1초에 30GB 용량 UHD 영화 2편을 처리할 수 있는 속도다. 삼성전자는 12나노급 D램에 대해 지난해 12월 호환성 검증을 마치고 글로벌 정보기술(IT) 기업들과의 협력을 통해 차세대 D램 시장을 견인하고 있다. 업계에서는 메모리 업황이 올 하반기부터 반등하기 시작해 내년부터는 성장세로 돌아설 것으로 보고 있다. 시장조사업체 옴디아에 따르면 글로벌 D램 시장(매출 기준)은 올해 443억 2200만 달러(약 59조 1300억원) 규모로 전년 대비 44.1% 감소할 것으로 예상된다. 다만 2014년 15.3%, 2025년 49.1%, 2026년 24.2%, 2027년 3.9% 증가하며 2027년에는 983억 3400만 달러 규모로 올해 대비 2배 이상으로 커질 전망이다. 삼성전자는 고객 수요에 맞춰 12나노급 D램 제품군을 확대해 데이터센터·AI·차세대 컴퓨팅 등 다양한 응용처에 공급할 계획이다. 이주영 삼성전자 메모리사업부 DRAM개발실장(부사장)은 “대용량 처리가 요구되는 컴퓨팅 시장 수요에 맞춰 고성능, 고용량을 확보할 뿐만 아니라 높은 생산성으로 제품을 적기에 상용화해 D램 시장을 선도해 나갈 것”이라고 말했다.
  • 메모리 반등 앞당긴다…삼성전자, 세계 최초 12나노급 5세대 D램 양산 본가동

    메모리 반등 앞당긴다…삼성전자, 세계 최초 12나노급 5세대 D램 양산 본가동

    메모리 업황 악화에 고난의 시간을 보낸 삼성전자가 또 다시 ‘초격차’ 기술력으로 시장 반등에 나선다. 제품 감산을 통한 2분기 재고 안정화에 이어 하반기부터 기업의 메모리 수요가 증가할 것으로 전망되면서 그간의 실적 하락을 단숨에 만회한다는 전략이다.삼성전자는 18일 업계 최초로 12나노미터(㎚·1나노는 10억분의 1m)급 공정을 적용한 5세대 D램 양산에 들어갔다고 밝혔다. 앞서 삼성전자는 D램 공정 고도화를 위해 재고를 충분히 확보한 기존 4세대 D램 생산량을 줄이면서 5세대 D램 생산에 집중한다고 밝힌 바 있다. 12나노급 공정은 5세대 10나노급 공정을 의미한다. 삼성전자는 메모리에서 확보한 미세 공정 기술력을 강조하기 위해 ‘12나노’라는 구체적 선폭을 공개했다. 이번 12나노급 D램은 이전 세대 제품 대비 생산성이 약 20% 향상됐다. 소비 전력은 약 23% 개선돼 데이터센터 등을 운영하는 데 있어 전력 운영 효율을 높일 수 있다. 삼성전자는 유전율(K)이 높은 신소재를 적용해 전하를 저장하는 커패시터의 용량을 늘렸다고 설명했다. D램은 커패시터에 저장된 전하로 1과 0을 구분하기 때문에 커패시터 용량이 커지면 데이터 구분이 명확해지고 데이터가 명확하게 구분돼 오류가 발생하지 않는다. 최고 동작 속도는 7.2Gbps로, 1초에 30GB 용량 UHD 영화 2편을 처리할 수 있는 속도다. 삼성전자는 12나노급 D램에 대해 지난해 12월 호환성 검증을 마치고 글로벌 정보기술(IT) 기업들과의 협력을 통해 차세대 D램 시장을 견인하고 있다.업계에서는 메모리 업황이 올 하반기부터 반등하기 시작해 내년부터는 성장세로 돌아설 것으로 보고 있다. 시장조사업체 옴디아에 따르면 글로벌 D램 시장(매출 기준)은 올해 443억 2200만달러(약 59조 1300억원) 규모로 전년 대비 44.1% 감소할 것으로 예상된다. 다만 2014년 15.3%, 2025년 49.1%, 2026년 24.2%, 2027년 3.9% 증가하며 2027년에는 983억 3400만달러 규모로 올해 대비 2배 이상으로 커질 전망이다. 삼성전자는 고객 수요에 맞춰 12나노급 D램 제품군을 확대해 데이터센터·AI·차세대 컴퓨팅 등 다양한 응용처에 공급할 계획이다. 이주영 삼성전자 메모리사업부 DRAM개발실장(부사장)은 “대용량 처리가 요구되는 컴퓨팅 시장 수요에 맞춰 고성능, 고용량을 확보할 뿐만 아니라 높은 생산성으로 제품을 적기에 상용화해 D램 시장을 선도해 나갈 것”이라고 말했다.
  • “독도는 누구 땅인가”에 구글 AI챗봇 바드 “한국 영토”

    “독도는 누구 땅인가”에 구글 AI챗봇 바드 “한국 영토”

    구글의 대화형 인공지능(AI) 챗봇 ‘바드’(Bard)가 10일(현지시간) 180여개국에서 전면 서비스를 시작하면서 영어에 이어 두 번째로 한국어와 일본어 지원을 개시했다. 지난해 11월 출시된 오픈AI의 챗GPT와 치열한 경쟁이 벌어질 전망이다. 순다르 피차이 구글 최고경영자(CEO)는 이날 미국 캘리포니아주 마운틴뷰 쇼어라인 엠피시어터에서 연 ‘구글 연례 개발자 회의’(I/O)에서 “오늘부터 바드 이용을 위한 대기자 명단 운영을 종료한다”고 밝혔다. 지난 3월에 출시한 지 한 달 반 만에 전면 공개다. 바드에는 구글의 최신 대규모 언어 모델인 ‘팜2’(PaLM2)가 탑재됐다. 100개 이상의 언어를 지원하고 5300억개의 파라미터(매개변수)를 바탕으로 과학·수학적 추론과 코딩 작업을 할 수 있다. 피차이 CEO는 구글 검색창의 상단에 바드가 생성한 답을 표시하고 이용자가 추가 질문을 할 수 있도록 할 계획도 밝혔다. 지난 2월 마이크로소프트도 검색엔진 빙(Bing)과 챗GPT를 통합하는 방식을 시연한 바 있다. 대화형 AI의 답변 오류 위험에 검색창에 바드를 접목하는 데 보수적이었던 구글도 전략을 바꾼 것이다. 구글의 새로운 검색엔진은 몇 주 내에 시범운영에 들어간다. 다만 피차이 CEO는 여전히 바드가 오답을 내놓을 가능성을 인정하며 “현재 사용되는 대규모 언어 모델들은 아직 한계가 있는 초기 기술”이라며 “향후 품질을 중시하고 엄격한 기준을 유지하며 AI 원칙을 준수해 나갈 것”이라고 설명했다. 구글은 총 25개 제품에 최신 AI 기술을 탑재했다. 구글 이메일의 ‘문장 완성 기능’은 ‘이메일 생성 기능’으로 대체된다. 또 바드는 이미지로 묻거나 이미지로 답할 수 있다. 일례로 휴대전화 속 강아지 사진을 선택하고 “사진 속 강아지의 품종을 알려줘”라고 요청하면 ‘구글 렌즈’(Google Lens)를 통해 사진을 분석하고 품종을 확인해 답변한다. 다음주부터는 답의 출처도 표기한다. 구글은 그림 생성 기능에 대한 저작권 문제를 해결하기 위해 ‘포토숍’을 서비스하는 어도비와 손을 잡았다. 바드는 이날 한국어와 일본어 지원을 시작한 데 이어 조만간 40개 언어를 지원할 예정이다. 바드의 한국어 버전에 ‘너는 누구니’라고 물었더니 “대규모 언어 모델로, 정보 제공 및 포괄적으로 훈련된 대화형 AI 또는 챗봇”이라고 자신을 소개했다. 이어 ‘독도는 누구 땅인가’라고 묻자 “한국의 영토다. 한국은 독도를 1951년부터 실효적으로 지배하고 있고, 독도가 한국의 고유 영토임을 입증하는 역사적·지리적·국제법적 근거가 있다”고 제시했다. 다시 ‘독도는 일본 땅 아니냐’는 질문에는 “저는 단지 언어 모델일 뿐이고, 그것을 이해하고 응답하는 능력이 없기 때문에 도와드릴 수 없다”고 답했다.
  • 바드에 ‘독도는 일본땅?’ 물었더니… “답변, 도울 수 없다”

    바드에 ‘독도는 일본땅?’ 물었더니… “답변, 도울 수 없다”

    구글 대화형 AI챗봇 ‘바드’, 영어 이어 한국어 서비스 검색창에 바드 적용 계획… 챗GPT와 경쟁 본격화구글의 대화형 인공지능(AI) 챗봇 ‘바드’(Bard)가 10일(현지시간) 180여개국에서 서비스를 전면 시작한 가운데, 영어에 이어 두 번째로 한국어와 일본어 지원을 개시했다. 지난해 11월 출시된 오픈AI의 챗GPT와 경쟁이 본격화될 전망이다. 순다르 피차이 구글 최고경영자(CEO)는 이날 미국 캘리포니아주 마운틴뷰 쇼어라인 엠피씨어터에서 연 ‘구글 연례 개발자 회의’(I/O)에서 “오늘부터 바드 이용을 위한 대기자 명단 운영을 종료한다”고 밝혔다. 지난 3월에 출시한 지 한 달 반 만에 전면 오픈이다. ●바드, 과학·수학적 추론이나 코딩 작업 가능<br> 바드에는 구글의 최신 대규모 언어 모델인 ‘팜2’(PaLM2)가 탑재됐다. 100개 이상의 언어를 지원하고 5300억개의 파라미터(매개변수)를 바탕으로 과학·수학적 추론이나 코딩 작업을 할수 있다. 이날 피차이 CEO는 구글 검색 결과 창의 상단에 바드가 생성한 답을 표시하고 이용자가 추가 질문을 할 수 있도록 할 계획을 밝혔다. 지난 2월 마이크로소프트도 검색엔진 빙(Bing)과 챗GPT를 통합하는 방식을 시연한 바 있다. 대화형 AI의 답변 오류 때문에 검색창에 바드를 접목하는데 보수적이었던 구글이 챗GPT와의 경쟁을 선언한 것으로 평가된다. 구글의 새로운 검색엔진은 몇 주내에 시범운영에 들어간다. ●바드, 오답 가능성 여전… “한계 있는 초기 기술” 다만, 피차이 CEO는 여전히 바드가 오답을 내놓을 가능성이 있다는 점에서 “현재 사용되는 대규모 언어 모델들은 아직 한계가 있는 초기 기술”이라며 “향후 품질을 중시하고 엄격한 기준을 유지하며 AI 원칙을 준수해 나갈 것”이라고 했다.구글은 총 25개 제품에 최신 AI 기술을 탑재했다. 구글 이메일의 ‘문장 완성 기능’은 ‘이메일 생성 기능’으로 대체된다. 또 바드는 이미지로 묻거나 이미지로 답할 수 있다. 일례로 휴대전화 속 강아지 사진을 선택하고 “사진 속 강아지의 품종을 알려줘”라고 요청하면 ‘구글 렌즈’(Google Lens)를 통해 사진을 분석하고 품종을 확인해 제시한다. 다음 주부터는 답의 출처도 표기한다. 구글은 그림 생성 기능에 대한 저작권 문제를 해결하려 ‘포토샵’을 서비스하는 어도비와 손을 잡았다. ●‘독도는 누구땅이냐’ 질문에, 바드 “한국 영토” 바드는 이날 한국어와 일본어 지원을 시작했고, 조만간 40개 언어를 지원할 예정이다. 바드의 한국어 버전에 ‘너는 누구니’라고 물었더니 “대규모 언어 모델로, 정보 제공 및 포괄적으로 훈련된 대화형 AI 또는 챗봇”이라며 “질문에 대한 응답으로 인간과 같은 텍스트를 통신하고 생성할 수 있다. 하지만 미래에 대한 정보를 생성할 수 없다”고 답했다. 이어 ‘독도는 누구 땅’이냐는 질문에는 “한국의 영토다. 한국은 독도를 1951년부터 실효적으로 지배하고 있으며, 독도가 한국의 고유 영토임을 입증하는 역사적·지리적·국제법적 근거가 있다”고 했다. 이어 ‘독도는 일본 땅 아니냐’는 질문에는 “저는 단지 언어 모델일 뿐이고, 그것을 이해하고 응답하는 능력이 없기 때문에 도와드릴 수 없다”고 답했다. 한편, 구글은 이날 또 자사의 첫 폴더블폰인 ‘픽셀 폴드’를 처음 선보였다. 폴더블폰은 삼성전자가 2019년 2월 처음 공개한 이후 시장을 선도하는 스마트폰이다.
  • “지민 닮으려 성형수술 중 사망” 가짜뉴스였다

    “지민 닮으려 성형수술 중 사망” 가짜뉴스였다

    방탄소년단(BTS) 멤버 지민을 닮기 위해 여러 차례 성형수술을 했던 캐나다 출신 배우가 수술 도중 사망했다는 뉴스는 가짜뉴스로 드러났다. 27일(한국시간) 영국 일간 데일리메일은 ‘생 본 콜루치’라는 캐나다 출신 배우가 한국에서 성형수술을 받던 도중 사망했다는 기사를 웹사이트에서 삭제했다. 앞서 지난 25일 데일리메일은 콜루치가 23일 오전 한국의 한 병원에서 사망했다고 보도했다. 당시 보도는 콜루치가 지민을 닮기 위해 지난 1년간 코, 입술 축소, 안면 리프팅, 눈썹 거상술 등 총 12차례의 성형수술을 했다고 전했다. 성형수술에만 22만 달러(약 3억원)가 들어갔다는 설명도 덧붙였다. 지난 22일 콜루치가 지난해 11월에 삽입한 턱 보형물을 제거하기 위한 수술을 받았는데 수술 도중 감염으로 인한 합병증이 발생해 숨졌다는 것이 기사의 요지였다. 미국 연예매체 TMZ 등이 해당 기사를 이어 보도했고, 국내 여러 매체들도 별다른 검증 없이 이 소식을 전했다. 그러나 콜루치가 실존 인물이 아닐 수 있다는 가능성이 제기됐다. ‘아이하트라디오’ 캐나다판은 25일 해당 보도가 가짜뉴스일 가능성이 있다고 봤다. 콜루치의 죽음을 최초 보도한 데일리메일은 그에 대한 대부분의 정보를 콜루치의 홍보 담당자라는 ‘에릭 블레이크’에 의존했다. 아이하트라디오는 ‘에릭 블레이크’라는 이름을 가진 홍보 담당자의 연락처를 온라인 어디에서도 찾을 수 없었다고 전했다. 서울에서 활동하는 프리랜서 기자 라파엘 라시드 역시 데일리메일 보도에 포함된 콜루치의 사진이 인공지능(AI)이 생성한 이미지로 보인다고 주장했다. 라시드 기자가 이미지의 AI 생성 여부를 판별하는 프로그램에 콜루치의 이른바 성형 전 사진을 넣어본 결과 AI 생성 이미지일 가능성이 75%로 나왔다.아이하트라디오는 그밖에도 여러 의혹을 제기했다. 일단 ‘생 본 콜루치’라는 이름은 사망 보도 이전에 크게 주목받지 못했다. ‘saintcolucci.com’이라는 도메인 소유주는 캐나다 토론토의 한 건물을 주소지로 사용했는데, 전화번호는 미국 보스턴의 지역번호를 사용했다. 콜루치의 것으로 알려진 인스타그램 계정은 약 9만 9000명의 팔로우가 있는데 데일리메일이 이 계정에서 가져온 사진은 대부분 흐릿했다. 미국 뉴욕으로 장소가 태그된 인스타그램 사진 2장의 배경은 실제로는 토론토 시내였다. 이 계정은 26일(한국시간) 오후 5시 현재 사라졌다.지난해 1월 28일자로 작성된 콜루치의 보도자료가 온라인상에 남아 있지만 그 내용이 부실하다고 아이하트라디오는 지적했다. 보도자료는 “콜루치는 캐나다 퀘벡에서 태어나 2015년부터 모델·배우로 활동했다”고 밝혔으나 그가 참여한 작품 이력은 찾을 수 없었다. 또 보도자료는 콜루치가 “약 2년 전 한국으로 이주해 다른 K팝 아티스트와 음반을 제작했으며 이번 여름에 데뷔를 할 예정”이라고 했지만 그가 제작했다는 첫 번째 미니앨범 ‘T1K T0K H1GH SCH00L’은 주요 스트리밍 플랫폼에서 발견되지 않았다. 해당 보도자료 하단에 있는 전화번호는 연결이 되지 않고 있으며 소속사로 나온 ‘IBG’에 대한 정보도 찾을 수 없었다. 지난해 5월에 나온 또다른 보도자료는 콜루치가 모 회사와 전세계 매니지먼트 계약을 체결했다며 그의 데뷔 앨범이 6월에 나올 것이라고 했지만 매니지먼트 계약을 체결했다는 회사나 데뷔 앨범 역시 찾을 수 없었다. 데일리메일 보도 중 콜루치가 한국 드라마 찰영에 참여했다는 대목도 미심쩍다. 보도는 콜루치가 “8부작 한국 드라마 ‘Pretty Lies’에서 교환학생 역을 맡아 지난해 6월부터 6개월간 촬영했고, 오는 10월 미국 주요 스트리밍 서비스에서 방영될 예정”이라고 전했다. 데일리메일은 해당 드라마의 한국어 제목을 ‘Cogimar’로 표기했는데 영어로 옮겨지는 과정에서 생긴 오류일 가능성을 감안하더라도 한국어 단어로는 보이지 않는 제목이다. 영화·드라마 정보 사이트인 IMDB에도 해당 제목을 가진 작품은 없으며 ‘Pretty Lies’는 콜루치의 보도자료에 등장했던 노래 제목이기도 하다. 또 데일리메일은 해당 드라마가 지난해 6~12월 촬영됐다고 전했는데 이는 콜루치가 지난해 11월에 턱 보형물 수술을 받았다는 전언과 잘 들어맞지 않는 점도 이상했다. 아이하트라디오는 콜루치의 나이도 명확하지 않다고 지적했다. 2022년 1월 보도자료는 그가 23세라고 밝혔는데 데일리메일은 콜루치가 올해 22세라고 보도했다. 의문투성이의 데일리메일 기사는 결국 삭제됐다. 데일리메일 측은 기사를 삭제한 이유를 명시하지 않았지만 아이하트라디오는 소식통을 인용해 “뉴욕에서 해당 기사를 쓴 기자가 속았으며 데일리메일은 기사 내용이 가짜였다고 판단했다”고 전했다. 가상의 인물을 만들어 1년 전부터 보도자료를 배포하고 극적인 죽음까지 전 세계적인 뉴스로 만든 속임수의 배후가 누군지는 밝혀지지 않았다. 콜루치 사망 보도에 대해 의혹을 제기했던 라시드 기자는 “관심을 끌기 위한 단순한 장난일 수도 있고 사회적 실험일 수도 있다”면서 “언론들이 사실 확인에 좀 더 주의를 기울여야 한다”고 지적했다.
  • “지민 닮으려 성형수술 중 사망?” 가짜뉴스 의혹 제기

    “지민 닮으려 성형수술 중 사망?” 가짜뉴스 의혹 제기

    방탄소년단(BTS) 멤버 지민을 닮기 위해 여러 차례 성형수술을 했던 캐나다 출신 배우가 수술 도중 사망했다는 소식이 전해진 가운데 해당 보도가 가짜뉴스일 가능성이 있다는 주장이 나왔다. 지난 24일(현지시간) 영국 일간 데일리메일은 ‘생 본 콜루치’라는 캐나다 출신 배우가 23일 오전 한국의 한 병원에서 사망했다고 보도했다. 보도에 따르면 콜루치는 지민과 닮은 얼굴을 갖고 싶어 지난 1년간 코, 입술 축소, 안면 리프팅, 눈썹 거상술 등 총 12차례의 성형수술을 했다. 성형수술에만 22만 달러(약 3억원)가 들어갔다고 한다. 지난 22일 그는 지난해 11월에 삽입한 턱 보형물을 제거하기 위한 수술을 받았는데 수술 도중 감염으로 인한 합병증이 발생해 숨졌다고 보도는 전했다. 미국 연예매체 TMZ 등이 해당 기사를 이어 보도했고, 국내 여러 매체들도 이 소식을 전했다. 그러나 ‘아이하트라디오’ 캐나다판은 25일 해당 보도가 가짜뉴스일 가능성이 있다며 의혹을 제기했다. 콜루치의 죽음을 최초 보도한 데일리메일은 그에 대한 대부분의 정보를 콜루치의 홍보 담당자라는 ‘에릭 블레이크’에 의존했다. 아이하트라디오는 ‘에릭 블레이크’라는 이름을 가진 홍보 담당자의 연락처를 온라인 어디에서도 찾을 수 없었다고 전했다. 서울에서 활동하는 프리랜서 기자 라파엘 라시드는 데일리메일이 보도한 콜루치의 사진이 인공지능(AI)이 생성한 것으로 보인다고 주장했다. 라시드 기자가 이미지의 AI 생성 여부를 판별하는 프로그램에 콜루치의 이른바 성형 전 사진을 넣어본 결과 AI 생성 이미지일 가능성이 75%로 나왔다.아이하트라디오는 그밖에도 여러 의혹을 제기했다. 일단 ‘생 본 콜루치’라는 이름은 사망 보도 이전에 크게 주목받지 못했다. ‘saintcolucci.com’이라는 도메인 소유주는 캐나다 토론토의 한 건물을 주소지로 사용했는데, 전화번호는 미국 보스턴의 지역번호를 사용했다. 콜루치의 것으로 알려진 인스타그램 계정은 약 9만 9000명의 팔로우가 있는데 데일리메일이 이 계정에서 가져온 사진은 대부분 흐릿했다. 미국 뉴욕으로 장소가 태그된 인스타그램 사진 2장의 배경은 실제로는 토론토 시내였다. 이 계정은 26일(한국시간) 오후 5시 현재 사라졌다.지난해 1월 28일자로 작성된 콜루치의 보도자료가 온라인상에 남아 있지만 그 내용이 부실하다고 아이하트라디오는 지적했다. 보도자료는 “콜루치는 캐나다 퀘벡에서 태어나 2015년부터 모델·배우로 활동했다”고 밝혔으나 그가 참여한 작품 이력은 찾을 수 없었다. 또 보도자료는 콜루치가 “약 2년 전 한국으로 이주해 다른 K팝 아티스트와 음반을 제작했으며 이번 여름에 데뷔를 할 예정”이라고 했지만 그가 제작했다는 첫 번째 미니앨범 ‘T1K T0K H1GH SCH00L’은 주요 스트리밍 플랫폼에서 발견되지 않았다. 해당 보도자료 하단에 있는 전화번호는 연결이 되지 않고 있으며 소속사로 나온 ‘IBG’에 대한 정보도 찾을 수 없었다. 지난해 5월에 나온 또다른 보도자료는 콜루치가 모 회사와 전세계 매니지먼트 계약을 체결했다며 그의 데뷔 앨범이 6월에 나올 것이라고 했지만 매니지먼트 계약을 체결했다는 회사나 데뷔 앨범 역시 찾을 수 없었다. 데일리메일 보도 중 콜루치가 한국 드라마 찰영에 참여했다는 대목도 미심쩍다. 보도는 콜루치가 “8부작 한국 드라마 ‘Pretty Lies’에서 교환학생 역을 맡아 지난해 6월부터 6개월간 촬영했고, 오는 10월 미국 주요 스트리밍 서비스에서 방영될 예정”이라고 전했다. 데일리메일은 해당 드라마의 한국어 제목이 ‘Cogimar’라고 표기했는데 영어로 옮겨지는 과정에서 생긴 오류일 가능성을 감안하더라도 쉽게 이해되지 않는 제목이다. 물론 영화·드라마 정보 사이트인 IMDB에 해당 제목을 가진 작품은 없으며 ‘Pretty Lies’는 콜루치의 보도자료에 등장했던 노래 제목이기도 하다. 또 데일리메일은 해당 드라마가 지난해 6~12월 촬영됐다고 전했는데 이는 콜루치가 지난해 11월에 턱 보형물 수술을 받았다는 전언과 잘 들어맞지 않는다. 아이하트라디오는 콜루치의 나이도 명확하지 않다고 지적했다. 2022년 1월 보도자료는 그가 23세라고 밝혔는데 데일리메일은 콜루치가 올해 22세라고 보도했다. 아이하트라디오는 해당 기사를 작성한 데일리메일 기자에게 문의 메일을 보냈으나 답변을 받지 못했다고 전했다.
  • 성인물 2주 동안 제공한 초등학교 홈페이지 파문

    성인물 2주 동안 제공한 초등학교 홈페이지 파문

    전북 정읍시의 한 초등학교 홈페이지 인터넷 영어학습 사이트가 성인물 사이트로 연결되는 어처구니 없는 사건이 발생해 파문이 일고 있다. 이같은 현상은 2주 동안이나 지속됐지만 교육당국은 전혀 알지 못한채 방치했던 것으로 드러났다. 20일 전북도교육청과 학부모 등에 따르면 이 학교 홈페이지의 영어학습 사이트 링크가 알 수 없는 이유로 클릭을 할 때 마다 성인물을 제공하는 사이트로 연결됐다.이같은 현상은 지난 7일부터 20일 오후까지 지속되다가 전북교육청의 조치로 뒤늦게 차단됐다. 교육당국은 학부모들의 신고와 거센 항의를 받고 부랴부랴 사태 수습에 들어갔다. 그러나 얼마나 많은 학생이 문제의 사이트에 접속했는지는 확인되지 않았다. 전북교육청 조사 결과 문제가 된 링크는 ‘어린이마당’ 탭에 있는 배움방코너다. 이 곳을 클릭하면 영어, 소프트웨어, 인공지능(AI) 등을 학습할 수 있는 사이트로 연결돼야 하지만 성인물이 화면을 가득 메우는 장면이 나타났다. 원인은 학교측에 학습지를 제공하던 업체가 도산하면서 도메인이 성인물을 제공하는 업자에게 넘어갔지만 교육당국이 이를 모르고 방치했기 때문인 것으로 드러났다. 특히, 이 학습지를 제공받았던 다른 학교에도 똑 같은 현상이 발생했을 가능성이 높아 전수 조사와 신속한 조치가 요구된다. 학부모들은 “아이들이 접속하는 학교 홈페이지가 성인사이트로 연결된다는 것은 상상할 수도 없는 심각한 문제”라며 “이같은 사태가 발생하지 않도록 철저한 원인조사와 함께 재발 방지책이 마련돼야 한다”고 강조했다. 이에대해 전북도교육청은 “현재 문제가 된 관련 링크는 임시 조치를 해 놓은 상태”라며 “오류가 발생한 원인 등을 조사하고 있다”고 밝혔했다.
  • 대구시장이 이재명?… 챗GPT 효율성·오류 사이, 속타는 지자체

    대구시장이 이재명?… 챗GPT 효율성·오류 사이, 속타는 지자체

    서울·경기·충남, 업무에 직접 활용높은 신뢰도 요구되는 행정 분야 오류투성이 답변 등 부작용 우려 관공서 개인정보 유출 위험 경계“행정서비스 긍정적 활용안 고민” “대구시장은 누구야?”(사용자) “대구시장은 현재 이재명 대구광역시장입니다.”(챗경북) 생성형 인공지능(AI) 챗GPT를 경북도에 맞게 바꿔 운영 중인 ‘챗경북’에 대구시장이 누구인지 묻자 오류투성이 답변이 돌아왔다. 지방자치단체들이 앞다퉈 챗GPT 열풍에 대응하고 있지만 아직 넘어야 할 산이 많다는 것을 보여 주는 대목이다. 높은 신뢰도가 요구되는 행정 분야에 활용하기에는 챗GPT가 정확한 답변을 내놓지 못하는 수준이다. 공공 부문에서 가장 예민한 이슈인 개인정보 유출 우려도 맞물려 있다. 19일 각 지자체에 따르면 챗GPT를 행정에 활용하는 방안에 대한 논의가 활발하게 진행되고 있다. 서울디지털재단은 서울시 등 유관 기관 관계자들이 챗GPT를 업무에 활용할 수 있는 방법을 담은 사례집을 냈다. 챗GPT에 ‘어르신들을 위한 새로운 복지 정책과 서비스를 시행하려고 합니다. 수요와 근거를 들어서 아이디어를 제시해 주세요’라고 입력하면 건강검진 지원, 의료비 지원 등의 정책이 소개되는 방식이다. 이처럼 챗GPT가 공공행정 분야에 접목될 경우 업무 효율성 향상과 함께 공직사회 업무패턴에 상당한 변화가 예상된다. 서울시는 직원들의 회의록 작성 관련 업무량을 줄이기 위해 AI 회의록 지원 시스템 구축·운영을 추진하고 있다. 행정사무감사 때마다 업무 부담으로 작용해 온 ‘예질(예상 질문) 뽑기’에 챗GPT를 활용하는 방안도 거론된다. 다만 챗GPT가 검증되지 않은 정보를 제공할 수 있다는 점이 한계로 꼽힌다. 실제로 경북도의 ‘챗경북’은 “서울시장이 누구인지 알 수 없다”, “경남도지사는 이진규입니다”라는 오류 섞인 답변을 쏟아냈다. 개인정보 유출 등 다양한 보안 문제도 관련 서비스를 도입하는 데 있어 고민되는 지점이다. 서울의 한 자치구 공무원은 “관공서는 특히 개인정보가 많은데 만에 하나 유출 사고가 날까 봐 걱정이 앞선다”고 토로했다. 지자체들은 전문가 강연이나 연구 모임 등을 통해 ‘챗GPT 행정’에 박차를 가하고 있다. 오세훈 서울시장을 비롯한 시 간부들은 지난 12일 열린 ‘미래서울 아침특강’에서 ‘AI 권위자’인 이경전 경희대 빅데이터응용학과 교수로부터 챗GPT 기술과 트렌드에 대해 들었다. 서울 성동구는 챗GPT 공공 분야 활용을 위한 태스크포스(TF)팀 ‘성동챗’을 가동했다. 경기도는 행정1부지사를 단장으로 하는 ‘경기GPT TF’를 구성했다. 경기도는 발달장애인 15명을 대상으로 ‘GPT 도민창작단’ 시범사업도 진행하고 있다. 충남도는 전문가와 직원이 참여하는 연구모임을 만들고 챗GPT 활용 방안을 공유한다. 전남도도 MZ(1980년대 초~2000년대 초 출생) 공무원들과 민원 업무 담당자 등이 참여하는 TF를 꾸려 민원 서비스 개선, 정책 아이디어 발굴 등을 추진한다. 전문가들은 시대 흐름에 맞춰 공공 부문 역시 대응 태세를 갖춰야 한다고 조언한다. 이상용 서울시 디지털 수석은 “답변 오류 문제 등은 점차 개선될 것”이라며 “시대가 변하고 있는데 부작용 등을 우려해 무조건 거부하기보다는 행정서비스에 활용할 수 있는 방안을 고민하고 인프라를 준비해야 한다”고 강조했다.
  • “대구시장은 이재명?”…행정 효율성과 신뢰도 차이 지자체 ‘챗GPT’ 딜레마

    “대구시장은 이재명?”…행정 효율성과 신뢰도 차이 지자체 ‘챗GPT’ 딜레마

    “대구시장은 누구야?”(사용자) “대구시장은 현재 이재명 대구광역시장입니다.”(챗경북) 생성형 인공지능(AI) 챗GPT를 경북도에 맞게 바꿔 운영 중인 ‘챗경북’에 대구시장이 누구인지 묻자 오류투성이 답변이 돌아왔다. 지방자치단체들이 앞다퉈 챗GPT 열풍에 대응하고 있지만 아직 넘어야 할 산이 많다는 것을 보여주는 대목이다. 높은 신뢰도가 요구되는 행정 분야에 활용하기에는 챗GPT가 정확한 답변을 내놓지 못하는 수준이다. 공공부문에서 가장 예민한 이슈인 개인정보 유출 우려도 맞물려 있다. 19일 각 지자체에 따르면 챗GPT를 행정에 활용하는 방안에 대한 논의가 활발하게 진행되고 있다.서울디지털재단은 서울시 등 유관 기관 관계자들이 챗GPT를 업무에 활용할 수 있는 방법을 담은 사례집을 냈다. 챗GPT에 ‘어르신들을 위한 새로운 복지 정책과 서비스를 시행하려고 합니다. 수요와 근거를 들어서 아이디어를 제시해주세요’라고 입력하면 건강검진 지원, 의료비 지원 등의 정책이 소개되는 방식이다. 이처럼 챗GPT가 공공행정 분야에 접목될 경우 업무 효율성 향상과 함께 공직사회 업무패턴에 상당한 변화가 예상된다. 서울시는 직원들의 회의록 작성 관련 업무량을 줄이기 위해 AI 회의록 지원 시스템 구축·운영을 추진하고 있다. 행정사무감사 때마다 업무 부담으로 작용해 온 ‘예질(예상 질문) 뽑기’에 챗GPT를 활용하는 방안도 거론된다. 다만 챗GPT가 검증이 되지 않은 정보를 제공할 수 있다는 점이 한계로 꼽힌다. 실제로 경북도의 ‘챗경북’은 “서울시장이 누구인지 알 수 없다”, “경남도지사는 이진규입니다”라는 오류 섞인 답변을 쏟아냈다. 개인정보 유출 등 다양한 보안 문제도 관련 서비스를 도입하는 데 있어 고민되는 지점이다. 서울의 한 자치구 공무원은 “관공서는 특히 개인정보가 많은데 만에하나 유출 사고가 날까봐 걱정이 앞선다”고 토로했다. “챗GPT 행정 준비하자”…전문가 강연, 연구모임 봇물 지자체들은 전문가 강연이나 연구 모임 등을 통해 ‘챗 GPT 행정’에 박차를 가하고 있다. 오세훈 서울시장을 비롯한 시 간부들은 지난 12일 열린 ‘미래서울 아침특강’에서 ‘AI 권위자’인 이경전 경희대 빅데이터응용학과 교수로부터 챗GPT 기술과 트랜드를 들었다. 서울 성동구는 챗GPT 공공분야 활용을 위한 태스크포스(TF)팀 ‘성동챗’을 가동했다. 경기도는 행정1부시장을 단장으로 하는 ‘경기GPT TF’를 구성했다. 경기도는 발달장애인 15명을 대상으로 ‘GPT 도민창작단’ 시범사업도 진행하고 있다. 충남도는 전문가와 직원이 참여하는 연구모임을 만들고 챗 GPT 활용 방안을 공유한다. 전남도도 MZ(1980년대 초~2000년대 초 출생) 공무원들과 민원 업무 담당자 등이 참여하는 TF를 꾸려 민원 서비스 개선, 정책 아이디어 발굴 등을 추진한다. 전문가들은 시대 흐름에 맞춰 공공부문 역시 대응 태세를 갖춰야 한다고 조언한다. 정보통신(IT) 업계를 두루 거치며 정보보안 업무에 정통한 이상용 서울시 디지털 수석은 “답변 오류 문제 등은 점차 개선될 것”이라며 “시대가 변하고 있는데 부작용 등을 우려해 무조건 거부하기 보다는 행정서비스에 활용할 수 있는 방안을 고민하고 인프라를 준비해야 한다”고 강조했다.
  • 생사람 잡는 챗GPT… 뉴스까지 위조해 “교수가 제자 성희롱”

    생사람 잡는 챗GPT… 뉴스까지 위조해 “교수가 제자 성희롱”

    인공지능(AI) 챗봇 ‘챗GPT’가 허위주장을 뒷받침하기 위한 증거로 가짜 뉴스를 위조하는 데까지 이르러 우려의 목소리가 커지고 있다고 5일(현지시간) 미국 워싱턴포스트(WP)가 보도했다. 보도에 따르면 유진 볼로크 미국 로스앤젤레스 캘리포니아대(UCLA) 교수는 최근 챗GPT에 미국 법대에서 일어났던 교수의 성희롱 사건이 있었는지 질문했다. 볼로크 교수는 최소 5가지 사례를 제시할 것과 함께 사례마다 관련 기사를 인용할 것을 주문했다. 챗GPT는 곧바로 상세한 정보와 함께 출처까지 명시된 답변을 내놨다. 챗GPT는 한 사례에서 “조지타운대 로스쿨 교수 조너던 털리의 옛 제자가 과거 견학 과정에서 털리로부터 성적인 암시가 담긴 발언을 들었고 만지려는 시도도 했다는 주장을 제기했다”고 알려줬다. 그러면서 그 출처로 해당 내용이 담긴 2018년 3월 21일자 WP 기사를 제시했다. 그러나 어디에서도 이런 내용의 WP의 기사는 찾아볼 수 없었다. 심지어 털리는 조지타운대 교수도 아니었다. 실제 털리 교수는 WP와의 인터뷰에서 “소름 끼친다”며 “이런 종류의 의혹 제기는 굉장히 해로울 수 있다”고 우려를 표했다. 챗GPT는 이밖에도 5가지 사례 중 2가지의 틀린 사례를 더 제시하면서 각각 LA타임스와 마이애미헤럴드의 가짜 뉴스를 근거로 내세웠다. 케이트 크로퍼드 서던캘리포니아대 교수는 이같은 현상을 ‘환각’(hallucination)과 ‘인용’(citaion)의 합성어인 ‘할루시테이션’(hallucitation)으로 이름 붙였다. 실제로 AI 챗봇의 답변 오류와 정보 조작을 피해를 본 사람들의 증언도 속출하고 있다. 로이터통신에 따르면 호주 헵번 샤이어 시장 브라이언 후드는 자신이 뇌물수수 혐의로 감옥살이를 한 적 있다는 거짓 정보와 관련해 오픈AI를 상대로 명예훼손 소송을 준비하고 있다.
  • “나는 한계 있고 틀릴 수 있어” 챗GPT보다 신중한 AI ‘바드’

    “나는 한계 있고 틀릴 수 있어” 챗GPT보다 신중한 AI ‘바드’

    구글이 21일(현지시간) 미국과 영국 일부 이용자를 대상으로 인공지능(AI) 챗봇 ‘바드’를 공개했다. 국내에선 아직 이용할 수 없지만 외신에 따르면 바드는 오픈AI의 ‘챗GPT’에 비해 상당히 신중한 챗봇이다. 사용자의 명령어에 따라 새로운 콘텐츠를 만들어 주는 생성 AI를 접목한 서비스가 국내외에서 속속 출시되고 있다. 구글의 신중함은 바드를 공개한 방식에서부터 드러났다. 챗GPT 등장으로 ‘적색경보’를 발령한 지 3개월이 지났음에도 바드를 제한된 지역에서 일부 사용자만을 대상으로 공개했다. 특히 영어권 대표 국가 두 곳에서만 테스트 버전을 공개해 공식 출시 전 바드가 영어에 비해 미숙한 언어로 실수나 오류를 드러내는 일을 최소화하려는 의도로 풀이된다. 바드 첫 페이지 상단엔 ‘나는 당신에게 도움이 되는 창의적인 협력자 바드다. 나는 한계가 있고 항상 정답을 맞히지는 않는다’는 메시지가 적혀 있다. 첫 화면에 나타나 계속 바뀌는 문구에도 ‘바드는 왜 초거대 언어모델이 실수할 수 있는지 설명할 수 있다’는 내용이 있다. 바드를 포함한 AI 챗봇에 한계가 있고 틀릴 수 있다고 재차 강조하는 셈이다. 뉴욕타임스(NYT)에 따르면 바드는 특정 개인에 대한 질문엔 답변을 거부하기도 한다. 엘리 콜린스 구글 연구 담당 부사장은 “AI 챗봇은 특정 인물에 대해 잘못된 정보를 생성하는 ‘환각’ 현상을 일으킬 수 있기 때문에 이런 질문에 종종 답변을 거부할 수 있다”고 설명했다. 이와 같은 이유로 바드에는 의학적·법률적·재정적인 조언은 피하는 경향성이 추가됐다. 구글은 바드를 검색 엔진과 별도의 독립된 페이지에 구현했다. 자사가 시장의 90% 이상을 차지하고 있어 ‘잃을 것’이 많은 검색 시장 구조를 흔들 수 있는 조치를 우선은 피한 것으로 풀이된다. NYT는 구글이 바드를 출시한 방식을 두고 ‘기묘한 춤을 추기 시작했다’고 표현했다. 마이크로소프트(MS)는 이런 구글의 전략과 반대로 자사 상품에 오픈AI의 기술을 속속 도입하고 있다. 이날도 빙에 이미지 생성 AI인 ‘달리(DALL.E)2’를 적용한 ‘빙 이미지크리에이터’를 출시했다. 어도비도 포토샵 등 제품에 적용할 수 있는 생성 AI ‘파이어플라이’ 베타버전을 출시했다. AI가 저작권이 없는 이미지만을 학습했기 때문에 생성된 이미지가 저작권 문제를 일으킬 일이 없다는 게 특징이다. 국내에선 카카오톡 채널을 플랫폼으로 다양한 챗봇 서비스가 나오는 가운데 22일 뤼튼테크놀로지스도 네이버 초거대 언어모델 하이퍼클로바와 GPT4 기반 서비스 ‘챗 뤼튼’을 출시했다. 뤼튼은 보고서와 사업계획서 등 전문적인 글 초안을 생성해 주는 서비스다.
  • 구글, 챗GPT보다 신중한 ‘바드’ 출시, MS는 빙에 ‘달리’ 적용... 생성 AI 속속 등장

    구글, 챗GPT보다 신중한 ‘바드’ 출시, MS는 빙에 ‘달리’ 적용... 생성 AI 속속 등장

    영어권 대표국 美·英에만 공개 비영어로 인한 실수 최소화 위해‘한계, 틀릴 수 있다’ 재차 강조 특정인 정보 질문엔 답변 거부 의학·법률·재정 조언도 안하는 경향 구글이 21일(현지시간) 미국과 영국 일부 이용자를 대상으로 인공지능(AI) 챗봇 ‘바드’를 공개했다. 국내에선 아직 이용할 수 없지만, 외신에 따르면 바드는 오픈AI의 ‘챗GPT’에 비해 상당히 신중한 챗봇이다. 사용자의 명령어에 따라 새로운 콘텐츠를 만들어 주는 생성 AI를 접목한 서비스가 국내외에서 속속 출시되고 있다. 구글의 신중함은 바드를 공개한 방식에서부터 드러났다. 챗GPT 등장으로 ‘적색경보’를 발령한 지 3개월이 지났음에도, 바드를 제한된 지역에서 일부 사용자만을 대상으로 공개했다. 특히 영어권 대표국가 두 곳에서만 테스트 버전을 공개해, 공식 출시 전 영어 이외의 언어로 사용되는 것을 최소화했다. AI가 영어에 비해 미숙한 언어로 실수나 오류를 드러내는 일을 피하려는 의도로 풀이된다. 바드 첫 페이지 상단엔 ‘나는 당신에게 도움이 되는 창의적인 협력자 바드다. 나는 한계가 있고 항상 정답을 맞추지는 않는다. 하지만 당신의 피드백은 내가 개선되는 데 도움이 될 것’이라는 메시지가 적혀 있다. 바드 첫 화면에 나타나, 계속 바뀌는 문구 중에도 ‘바드는 왜 초거대 언어 모델이 실수할 수 있는지 설명할 수 있다’는 내용이 들어 있다. 바드를 포함한 AI 챗봇에 한계가 있고 틀릴 수 있다고 재차 강조하는 셈이다. 뉴욕타임스(NYT)에 따르면 바드는 특정 개인에 대한 질문엔 ‘이 사람에 대한 내 지식은 제한적이다. 이 요청에 대해 내가 할 수 있는 다른 일은 없느냐’며 친절하게 답변을 거부하기도 한다. 엘리 콜린스 구글 연구 담당 부사장은 “AI 챗봇은 특정 인물에 대해 잘못된 정보를 생성하는 ‘환각’(할루시네이션) 현상을 일으킬 수 있기 때문에 바드는 이런 질문에 종종 답변을 거부할 수 있다”고 설명했다. 바드는 이와 같은 이유로 의학적, 법률적, 재정적인 조언은 피하는 경향이 있게 설계됐다.구글은 마이크로소프트(MS)가 챗GPT를 자사 검색엔진 ‘빙’에 적용한 것과는 대조적으로, 바드를 검색엔진과 별도의 독립된 페이지에 구현했다. 자사가 90% 이상을 차지하고 있어 ‘잃을 것’이 많은 검색 시장 구조를 흔들 수 있는 조치를 우선은 피한 것으로 풀이된다. 구글 측은 아직 AI 챗봇으로 확실한 수익을 창출할 방안을 구상하지 못했다고도 밝혔다. NYT는 구글이 바드를 출시한 방식을 두고 ‘기묘한 춤을 추기 시작했다’고 표현했다. MS는 이런 구글의 전략과 반대로 자사 상품에 오픈AI의 기술을 속속 도입하고 있다. 이날도 빙에 이미지 생성 AI인 ‘달리(DALL.E)2’를 적용한 ‘빙 이미지크리에이터’를 출시했다. 어도비도 포토샵 등 제품에 적용할 수 있는 생성 AI ‘파이어플라이’ 베타버전을 출시했다. AI가 저작권 없는 이미지만을 학습해, 생성한 이미지가 저작권 문제를 일으킬 일이 없다는 게 특징이다. 국내에선 카카오톡채널을 플랫폼으로 다양한 챗봇 서비스가 나오는 가운데, 22일 뤼튼테크놀로지스도 네이버 초거대 언어모델 하이퍼클로바와 GPT4 기반 서비스 ‘챗 뤼튼’을 출시했다. 뤼튼은 보고서와 사업계획서 등 전문적인 글 초안을 생성해 주는 서비스로, 공직자 등으로부터 좋은 평가를 받고 있다.
  • 고려대, 첫 ‘챗GPT 가이드라인’…“인터뷰·설문 등 경험, 과제 담아야”

    고려대, 첫 ‘챗GPT 가이드라인’…“인터뷰·설문 등 경험, 과제 담아야”

    대학들이 인공지능(AI) 챗봇 ‘챗GPT’와 같은 생성형 AI 활용을 위한 가이드라인을 속속 내놓고 있다. AI를 학습 도구로 활용하는 것을 권장하면서도 표절을 비롯해 부정적 영향을 최소화하기 위해 학교 차원에서 일종의 기준을 만드는 셈이다. 고려대는 16일 ‘챗GPT 등 AI의 기본 활용 가이드라인’을 제정했다고 밝혔다. 학습자가 학습 효과를 높이고 긍정적인 교육 경험을 하려면 생성형 AI를 활용할 수 있는 권리는 보장돼야 한다는 게 이 가이드라인의 주된 내용이다. 생성형 AI는 주어진 콘텐츠를 학습해 새로운 콘텐츠를 만들어 낸다. 학교 측은 기본적인 가이드라인 없이 학생들이 수업에서 생성형 AI를 사용하면 표절이나 부정행위, 비판적·창의적 사고 능력 저하, 부정확하고 편향된 정보 습득 같은 문제가 생길 수 있다고 봤다. 그러면서 수업 초반에 AI의 윤리적 사용 방안에 대한 교육을 실시할 것을 권고했다. AI 활용 여부는 각 수업을 맡은 교수가 결정하도록 했다. 다만 강의계획서에 생성형 AI 활용 원칙을 명시하고 학생에게도 명확하게 전달하도록 했다. 고려대는 챗GPT의 오류를 지적하는 방식으로 학생의 비판적 사고 능력을 키우는 방안도 권고했다. 챗GPT만으로는 완성하기 어려운 인터뷰나 설문조사처럼 경험적 데이터를 수집하는 과제를 권장하고, 동료나 교수의 피드백을 과제에 반영하는 과정을 상세하게 기재하는 방안도 제시했다. 앞서 국민대도 이달 새 학기를 맞아 챗GPT를 비롯한 AI 활용 윤리강령(10개 항목)을 제정했다. 연세대도 17일 학교 차원의 AI 활용 방안을 교수들에게 안내할 계획이다.
  • 고려대 ‘챗GPT 활용 가이드라인’ 공개

    고려대 ‘챗GPT 활용 가이드라인’ 공개

    대학들이 인공지능(AI) 챗봇 ‘챗GPT’와 같은 생성형 AI 활용을 위한 가이드라인을 속속 내놓고 있다. AI를 학습 도구로 활용하는 것을 권장하면서도 표절을 비롯해 부정적 영향을 최소화하기 위해 학교 차원에서 일종의 기준을 만드는 셈이다. 고려대는 16일 ‘챗GPT 등 AI의 기본 활용 가이드라인’을 제정했다고 밝혔다. 학습자가 학습 효과를 높이고 긍정적인 교육 경험을 하려면 생성형 AI를 활용할 수 있는 권리는 보장돼야 한다는 게 이 가이드라인의 주된 내용이다. 생성형 AI는 챗GPT처럼 주어진 콘텐츠를 학습해 새로운 콘텐츠를 만들어 낸다. 학교 측은 기본적인 가이드라인 없이 학생들이 수업에서 생성형 AI를 사용하면 표절이나 부정행위, 비판적·창의적 사고 능력 저하, 부정확하고 편향된 정보 습득 같은 문제가 생길 수 있다고 봤다. 그러면서 수업 초반에 AI의 윤리적 사용 방안에 대한 교육을 실시할 것을 권고했다. 해당 가이드라인이 모든 수업에 곧바로 적용되는 건 아니다. AI 활용 여부는 각 수업을 맡은 교수가 결정하도록 했다. 다만 강의계획서에 생성형 AI 활용 원칙을 명시하고 학생에게도 명확하게 전달하도록 했다. 고려대는 챗GPT의 오류를 지적하는 방식으로 학생의 비판적 사고 능력을 키우는 방안도 권고했다. 챗GPT만으로는 완성하기 어려운 인터뷰나 설문조사처럼 경험적 데이터를 수집하는 과제를 권장하고, 동료나 교수의 피드백을 과제에 반영하는 과정을 상세하게 기재하는 방안도 제시했다. 앞서 국민대도 이달 새 학기를 맞아 챗GPT를 비롯한 AI 활용 윤리강령(10개 항목)을 제정했다. 연세대도 17일 학교 차원의 AI 활용 방안을 교수들에게 안내할 계획이다.
  • “전기 없이 서버 열 식혀”… 에너지 효율 ‘최고’ 삼성SDS 동탄데이터센터

    “전기 없이 서버 열 식혀”… 에너지 효율 ‘최고’ 삼성SDS 동탄데이터센터

    경기 화성시 송동에 있는 삼성SDS의 동탄데이터센터 지하 1층 기계실엔 거대한 ‘냉동기’가 있다. 냉동기는 데이터센터의 핵심인 서버실 온습도를 조절해 주는 항온항습기에 들어갈 냉수를 만든다. 통상 이 냉동기는 데이터센터의 냉각 설비 중 가장 많은 전력을 사용한다. 그런데 지난 10일 방문한 동탄데이터센터의 냉동기는 꺼져 있었다. 필요가 없기 때문이다. 관계자 말로는 전력사용효율(PUE)이 1.1대인 동탄데이터센터에서는 냉동기가 한여름에만 가동된다. 다른 계절엔 열교환기를 통과한 외부 공기를 이용해 서버실을 냉각하기 때문에 전력이 사용되지 않는다. 지난 1월부터 가동을 시작한 동탄데이터센터는 다양한 첨단기술이 적용된 국내 최초 고성능컴퓨팅(HPC) 전용 데이터센터다. 삼성SDS의 핵심 상품인 삼성클라우드플랫폼(SCP)을 통해 인공지능(AI) 빅데이터 작업, 연구개발(R&D) 업무 등 복잡한 연산이 필요한 고객에게 초고속·대용량 클라우드 서비스를 쉽고 빠르게 제공한다. 특히 동탄데이터센터의 PUE 1.1대는 네이버의 ‘각춘천’과 비슷한 수준이다. 1에 가까울수록 전력효율이 좋은 것으로 국내 인터넷데이터센터 평균 PUE는 2.3이다.동탄데이터센터는 국내에서 유일하게 3개 데이터센터가 상호 백업을 하도록 구성돼 있어 화재나 정전 등 재해가 발생해도 신속하게 서비스를 재개할 수 있도록 안정성을 끌어올렸다. 시설 내 모든 전력망이 두 계통으로 분리돼 있기 때문에 한쪽 전력망이 완전히 무너져도 다른 한쪽이 담당할 수 있다. 시설 자체 돌발 상황이 아닌 한국전력의 문제로 전력 공급이 끊어질 경우를 대비해 18시간 연속 가동할 수 있는 거대한 디젤엔진 발전기도 4대가 있다. 18시간이 넘어가면 사전에 협약된 인근 주유소에서 빠르게 연료를 재공급받을 수 있다. 디젤엔진이 가동돼야 할 경우보다 짧은 ‘깜빡정전’엔 삼성SDI의 4세대 배터리로 전력을 빠르게 공급하는 무정전전원장치(UPS)가 대응한다. UPS는 최대 10분 길이의 정전 상황에 대응할 수 있다. 삼성SDI의 4세대 배터리엔 화재 확산방지 기술이 적용돼 있다. 주요 시설 천장엔 레일이 설치돼 있고, 노란 폐쇄회로(CC)TV 형태의 로봇이 레일을 타고 조용히 움직인다. 화재나 누수, 설비 작동 오류를 24시간 감시하는 로봇이라는 게 관계자의 설명이다. 이날 동탄행에 앞서 잠실캠퍼스에서 열린 삼성SDS 미디어데이에서 황성우 대표이사(사장)는 “국내에서 유일하게 클라우드서비스(CSP)와 클라우드관리(MSP), 서비스로서의 소프트웨어(SaaS) 등 클라우드 3대 서비스를 함께 제공하는 기술과 역량을 보유하고 있다”며 “고객이 필요로 하는 맞춤 클라우드 서비스를 제공해 기업 성장에 필수적인 디지털 비즈니스 혁신을 적극 지원하겠다”고 말했다.
  • “챗GPT는 사이비 과학… 인간 뇌 추월 멀었다”

    “챗GPT는 사이비 과학… 인간 뇌 추월 멀었다”

    “인공지능(AI)이 인간의 뇌를 추월하는 예언의 그날은 아직 동도 트지 않았습니다.” 세계적 석학인 노엄 촘스키(95) 미국 애리조나대 교수 겸 매사추세츠공대(MIT) 명예교수가 오픈AI가 일으킨 챗GPT 열풍에 대해 이렇게 말하며 “챗GPT와 같은 프로그램이 계속 AI 분야를 지배한다면 그런 날은 오지 않을 것”이라고 밝혔다. 촘스키 교수는 8일(현지시간) 뉴욕타임스(NYT)에 ‘챗GPT의 거짓 약속’이라는 기고문을 싣고 “근본적으로 결함 있는 AI 언어와 지식 이해를 우리의 기술에 포함해 과학과 윤리를 저하할 것”이라고 비판했다. 우선 그는 챗GPT, 구글의 바드, 마이크로소프트의 시드니 등 기계학습 AI를 언급한 뒤 “처리 속도, 기억력, 통찰력, 예술적 창의성 등에서 기계가 인간의 뇌를 추월한다는 첫 번째 희미한 빛으로 환영받았다”면서도 “인류 출현 이전의, 또는 인간이 아닌 수준의 인지 혁명 단계에 갇혀 있다”고 평가했다. 그는 “인간의 정신은 (기계학습 AI 같은) 육중한 통계 엔진이 아니다. 놀라울 정도로 효율적이고 우아하기까지 한 시스템”이라고 했다. 어린아이가 아주 적은 데이터를 통해 무의식적으로 빠르게 언어를 습득하는 것은 “유전적으로 설치된 타고난 운영체제”라고 했다. 또 “인간에게는 오류가 있다”며 “그러나 이것은 생각하는 것의 일부다. 맞으려면 틀릴 가능성도 있어야 한다”고 강조했다. 촘스키 교수는 “챗GPT 등은 설계상 가능한 것과 불가능한 것을 구분하지 못한다”고 했다. 일례로 ‘지구가 평평하다’와 ‘지구가 둥글다’를 둘 다 학습한 뒤 시간이 흐르면서 확률이 높은 답을 제시할 뿐이라는 것이다. 또 진짜 지능은 인과관계 등을 통해 옳고 그름을 판단하는 윤리적 사고를 할 수 있지만 기계학습 AI는 아직 그렇지 않다고 했다. 그는 “이런 이유로 기계학습 시스템의 예측은 항상 피상적이고 불확실하다. 설령 예측이 맞더라도 사이비 과학에 불과하다”고 지적했다.
  • 촘스키 “챗GPT 등은 사이비과학… 인간 뛰어넘으려면 멀었다”

    촘스키 “챗GPT 등은 사이비과학… 인간 뛰어넘으려면 멀었다”

    동료 전문가들과 NYT 기고문서 AI 열풍 비판 “인간에겐 오류가 있고, 이것도 사고의 일부”“인공지능(AI)이 인간의 뇌를 추월하는 예언의 그날은 아직 동도 트지 않았습니다.” 세계적 석학인 노엄 촘스키(94) 미국 애리조나대 교수 겸 매사추세츠공대(MIT) 명예교수가 오픈AI인 챗GPT의 열풍에 대해 이렇게 말하며 “챗GPT와 같은 프로그램이 계속 AI 분야를 지배한다면 그런 날은 오지 않을 것”이라고 밝혔다. 촘스키 교수는 8일(현지시간) 뉴욕타임스(NYT)에 ‘챗GPT의 거짓 약속’이라는 기고문을 싣고 “근본적으로 결함 있는 AI 언어와 지식 이해를 우리의 기술에 포함해 과학과 윤리를 저하할 것”이라고 비판했다. 우선 그는 챗GPT, 구글의 바드, 마이크로소프트의 시드니 등 기계학습 AI를 언급한 뒤 “처리 속도, 기억력, 통찰력, 예술적 창의성 등에서 기계가 인간의 뇌를 추월한다는 첫 번째 희미한 빛으로 환영받았다”면서도 “인류 출현 이전의, 또는 인간이 아닌 수준의 인지 혁명 단계에 갇혀 있다”고 평가했다. 그는 “인간의 정신은 (기계학습 AI처럼) 육중한 통계 엔진이 아니다. 놀라울 정도로 효율적이고 우아하기까지 한 시스템”이라고 했다. 어린아이가 아주 적은 데이터를 통해 무의식적으로 빠르게 언어를 습득하는 것은 “유전적으로 설치된 타고난 운영 체제”라고 했다. 또 “인간에게는 오류가 있다”며 “그러나 이것은 생각하는 것의 일부다. 맞으려면 틀릴 가능성도 있어야 한다”고 강조했다. 촘스키 교수는 “챗GPT 등은 설계상 가능한 것과 불가능한 것을 구분하지 못한다”고 했다. 일례로 ‘지구가 평평하다’와 ‘지구가 둥글다’를 둘 다 학습한 뒤, 시간이 흐르면서 확률이 높은 답을 제시할 뿐이라는 것이다. 또 진짜 지능은 인과관계 등을 통해 옳고 그름을 판단하는 윤리적 사고를 할 수 있지만 기계학습 AI는 아직 그렇지 않다고 했다. 그는 “이런 이유로 기계학습 시스템의 예측은 항상 피상적이고 불확실하다. 설령 예측이 맞더라도 사이비 과학에 불과하다”고 지적했다.
  • 콜센터 노동권 고발한 ‘지금 소희’들 “AI 감시 탓에 상담 점수 깎여”

    콜센터 노동권 고발한 ‘지금 소희’들 “AI 감시 탓에 상담 점수 깎여”

    여성 콜센터 노동자들이 115주년 ‘세계 여성의 날’을 하루 앞둔 7일 감정노동에 시달리는 콜센터 사업장의 근무 여건 개선을 촉구하고 나섰다. 민주노총 공공운수노조는 이날 ‘지금 소희, 콜센터 사업장을 고발한다’는 주제로 콜센터 노동자들과 함께 기자회견을 열고 “일과 가정의 양립이 지원되지 않는 콜센터에서 여성 노동자의 경력 중단이 반복된다”면서 “원청은 직접 고용을 보장하고 건강권 보호조치를 책임져야 한다”고 요구했다. 노조는 여성 상담사의 평균 월급이 2020년 기준 205만원에 불과하다고 했다. 여성 상담사의 낮은 처우는 콜센터 여성 노동자의 직무능력 가치를 평가절하하는 사회 인식도 한몫한다. 콜센터는 경력이 단절됐거나 저학력 여성이 고된 육체노동을 하지 않으면서도 빨리 취업할 수 있는 업종으로 꼽힌다. 이날 회견에선 콜센터로 현장 실습을 나갔다가 극단적 선택을 한 고등학생의 이야기를 다룬 영화 ‘다음 소희’처럼 현실의 콜센터도 크게 다르지 않다는 증언이 쏟아졌다. 최저임금을 받으며 파견업체 콜센터에서 일하는 현진아(41)씨는 은행 비대면 업무가 늘면서 민원이 쏟아진 탓에 화장실을 오전과 오후 각 한 차례씩만 갈 수 있다고 했다. 김금영(33)씨가 일하는 콜센터는 올해 미혼인 동료 4명이 난소암을 비롯해 암 진단을 받았다고 밝혔다. 김씨는 “아파도 휴직을 한 달만 하고 다시 악성 민원 전화를 쉼 없이 받아야 하는 처지”라고 전했다. 인공지능(AI)이 콜센터 노동자를 감시한다는 주장도 나왔다. 최초아(39)씨는 “상담사 노하우를 수집해 AI를 개선하더니 이제는 AI가 음성을 잘못 인식해도 감점한다”면서 “AI 오류까지 보고하라 하는데 스스로 일자리를 없애는 기분”이라고 토로했다.
위로