찾아보고 싶은 뉴스가 있다면, 검색
검색
최근검색어
  • 기술 윤리
    2026-04-07
    검색기록 지우기
  • 유가 인하
    2026-04-07
    검색기록 지우기
  • 통학거리
    2026-04-07
    검색기록 지우기
  • 보복관세
    2026-04-07
    검색기록 지우기
  • 국제 질서
    2026-04-07
    검색기록 지우기
저장된 검색어가 없습니다.
검색어 저장 기능이 꺼져 있습니다.
검색어 저장 끄기
전체삭제
3,027
  • 김철현 경기도의원, AI.국제협력.첨단산업 전반 총체적 점검... 공정한 지원 체계 구축 필요

    김철현 경기도의원, AI.국제협력.첨단산업 전반 총체적 점검... 공정한 지원 체계 구축 필요

    경기도의회 미래과학협력위원회 김철현 의원(국민의힘, 안양2)은 17일(월) AI국, 국제협력국, 미래성장산업국, 경기도경제과학진흥원, 차세대융합기술원, 경기테크노파크, 경기대진테크노파크를 대상으로 2025년도 행정사무감사 종합감사를 실시했다. 김철현 의원은 “이번 감사는 경기도의 AI·첨단산업·국제협력 정책이 기술 중심이 아닌 도민 중심의 혁신으로 작동하고 있는지 점검하는 자리였다”며, “정책의 방향성과 실행력이 일치하고 있는지, 그리고 그 성과가 실제 현장에서 체감되는지를 중점적으로 확인했다”고 밝혔다. 이번 행정사무감사 주요 내용으로는 ▲AI국의 AI데이터 표준화 및 품질 관리체계 미흡 문제, ▲한국광기술원 경기지역연구지원단(경기분원) 운영비 안정적 지원 방안 마련, ▲RISE(지역혁신중심 대학지원체계) 경기도형 대학혁신 모델로 정착할 수 있도록 거버넌스 전면 재정비 필요, ▲기업 지원사업의 도 산하 기관 간 중복지원 사전검증 제도화로 편중 지원 방지 필요, ▲외국인투자기업지원센터 비위 사건에 대한 국제협력국의 부실 대응 등을 질타했다. 또한 김철현 의원은 지난 11일 공식 출범한 ‘경기도 인공지능위원회’의 위원으로서, 해당 위원회가 경기도 AI 정책의 핵심 조정 기구로서 역할을 다해야 한다고 강조했다. “위원회가 도민이 신뢰할 수 있는 모범적 AI 정책 모델을 선도하는 기구가 되어야 하며, AI 등록제·AI 행정서비스·산업 생태계 강화 등 핵심 사업들이 위원회와의 긴밀한 협업 속에서 책임 있게 추진되길 기대한다”고 당부했다. 이에 대해 AI국 김기병 국장은 “도정자문위원회와 정보화위원회를 통해 자문과 제언을 받아오던 기존 방식에서 한 단계 나아가, 정책윤리·융합산업·핵심산업 등 분야별로 전문성을 갖춘 인공지능위원회를 중심으로 보다 체계적이고 심층적인 자문 체계를 구축하겠다”고 밝혔다. 또한 “인공지능위원회가 안건이 있을 때마다 수시로 개최되어 심도 있는 토론을 진행함으로써, 빠르게 변화하는 인공지능 환경에 신속하게 대응할 수 있는 기반을 마련할 것”이라고 답변했다. 마지막으로 김철현 의원은 “경기도가 진정한 미래산업을 선도하는 광역도로서 도약하기 위해서는 정책의 연속성과 현장의 실효성이 함께 작동해야 한다”며, “도민이 체감하는 변화가 이루어질 수 있도록 앞으로도 책임 있게 점검하겠다”고 강조했다.
  • 경북 포항시, 아태 AI 센터 유치 공식화…“산·학·연·전력최적지”

    경북 포항시, 아태 AI 센터 유치 공식화…“산·학·연·전력최적지”

    경북 포항시가 아시아·태평양 인공지능(AI) 센터 유치를 추진한다. 17일 포항시는 아시아태평양경제협력체(APEC) AI 이니셔티브에 따라 설립되는 아시아·태평양 AI 센터(Asia-Pacific AI Center) 유치를 공식 추진한다고 밝혔다. 센터는 경주에서 열린 APEC 정상회의를 계기로 설립이 추진된다. APEC 경주선언에는 우리나라가 주도해 센터를 설립한다는 내용이 명시됐다. 회원국 간 국제협력뿐만 아니라 기술 표준화, 상호운용성, AI 안전성 및 윤리, 지속적 R&D 협력 등을 통해 회원국 간 정책목표 달성, 민간투자 촉진, 상호 협력의 거점에 활용될 것으로 예상된다. 이강덕 시장은 이날 주요 연구기관 기관장들과 정책 간담회를 열어 센터 유치방안을 논의했다. 간담회에는 아태이론물리센터, 막스플랑크연구소, 포스텍, 인공지능연구원 등이 참석해 공동 협력 의지를 다졌다. 포항은 철강과 이차전지, 수소, 바이오 등 신산업을 적극 육성해 산업 전반에 AI를 접목하는 융합·실증 생태계가 구축돼 있다. 막대한 전력이 필요한 인프라를 구축해도 전국 1위 수준의 전력 자립율과 안정적인 전력망으로 뒷받침할 수 있다. 또한 방사광가속기·나노융합기술원·한국로봇융합연구원 등 세계적 수준의 연구시설을 보유하고 있다. 포스텍과 한동대를 중심으로 한 우수한 연구 인재를 확보할 수 있다. 시는 센터 유치를 위해 추진위원회 구성, 타당성·기본구상 용역, 비전 선포식 등 단계별 로드맵을 신속히 가동할 방침이다. 이 시장은 “아시아·태평양 AI 센터가 유치된다면 포항이 AI 정책과 연구 협력 중심도시로 성장할 것”이라며 “포항이 AI 기반 과학도시로 발전하는 중요한 계기가 될 것”이라고 말했다.
  • AI로 하는 딥페이크 범죄 급증… 놀이로 여긴 10대 피의자 최다

    AI로 하는 딥페이크 범죄 급증… 놀이로 여긴 10대 피의자 최다

    중학생 A(15)군은 텔레그램에서 단체 대화방을 개설한 뒤 ‘인공지능(AI) 자동화 프로그램’을 통해 제작한 연예인 허위·나체 사진을 공유했다. 이런 방식으로 A군은 지난해 11월부터 지난 4월까지 대화방 3개를 만들어 여성 연예인 30명의 얼굴에 나체사진을 합성한 허위 영상물(딥페이크) 590개를 제작하고 유포했다. 이 대화방에 참여한 사람만 840명이었다. A군에게 사진 및 영상을 받거나 같은 방식으로 직접 생산한 허위 영상물 3429개를 퍼뜨린 다른 피의자 23명도 경찰에 붙잡혔다. AI가 일상에 깊숙이 파고들면서 이를 이용한 사이버성범죄도 폭증하고 있다. 특히 사이버성범죄 가운데 딥페이크 범죄 혐의로 검거된 피의자 중 60뉴 이상이 10대였다. 초등학생이라도 온라인을 통해 기초 코딩 프로그램 등을 조금만 익히면 손쉽게 불법 콘텐츠를 제작하거나 유포할 수 있는 만큼 강력한 처벌과 예방 교육이 필요하다는 지적이 나온다. 경찰청 국가수사본부는 지난해 11월부터 올해 10월까지 실시한 사이버성폭력 집중단속으로 3557명을 검거하고 이중 221명을 구속했다고 16일 밝혔다. 지난 특별단속(2023년 11월~2024년 10월)에 붙잡힌 규모(2406명)와 비교하면 검거 규모가 반절 가까이 증가했다. 특히 이번 사이버성폭력범죄 단속 유형 중 딥페이크 범죄의 비중이 35.2뉴로 가장 많았고, 딥페이크 10대 피의자가 61.8뉴(895명)에 달했다. 10대 피의자들은 딥페이크 범죄를 단순히 ‘놀이’처럼 대수롭지 않게 여겨 범행을 저지르는 경향이 크다고 한다. 이때문에 죄의식 없이 청소년들 사이에서 더 빠르고 광범위하게 퍼진다는 것이다. 경찰 관계자는 “A군이 대화방을 운영하면서 별도로 수익을 취한 것은 없다”면서 “조사해보면 10대 피의자들은 대부분 범행 동기를 ‘성적 호기심’과 ‘장난’이라고 한다”고 설명했다. 김명주 서울여대 정보보호학과 교수는 “AI 기술이 발전해 특별한 지식이나 일정 시간 작업에 대한 투자 없이도 초나 분 단위로 불법 콘텐츠를 제작할 수 있다”며 “사이버성범죄의 피해는 피해자에게 영구적인 상처가 될뿐 아니라 재생산 및 유포 우려도 크기 때문에 처벌을 명확히 하고 윤리 교육도 강화해야 한다”고 했다.
  • 청소년 파고든 AI 딥페이크 “‘놀이’처럼 여겨”…범죄 피의자 절반 10대

    청소년 파고든 AI 딥페이크 “‘놀이’처럼 여겨”…범죄 피의자 절반 10대

    중학생 A(15)군은 텔레그램에서 단체 대화방을 개설한 뒤 ‘인공지능(AI) 자동화 프로그램’을 통해 제작한 연예인 허위·나체 사진을 공유했다. 이런 방식으로 A군은 지난해 11월부터 지난 4월까지 대화방 3개를 만들어 여성 연예인 30명의 얼굴에 나체사진을 합성한 허위 영상물(딥페이크) 590개를 제작하고 유포했다. 이 대화방에 참여한 사람만 840명이었다. A군에게 사진 및 영상을 받거나 같은 방식으로 직접 생산한 허위 영상물 3429개를 퍼뜨린 다른 피의자 23명도 경찰에 붙잡혔다. AI가 일상에 깊숙이 파고들면서 이를 이용한 사이버성범죄도 폭증하고 있다. 특히 사이버성범죄 가운데 딥페이크 범죄 혐의로 검거된 피의자 중 60% 이상이 10대였다. 초등학생이라도 온라인을 통해 기초 코딩 프로그램 등을 조금만 익히면 손쉽게 불법 콘텐츠를 제작하거나 유포할 수 있는 만큼 강력한 처벌과 예방 교육이 필요하다는 지적이 나온다. 경찰청 국가수사본부는 지난해 11월부터 올해 10월까지 실시한 사이버성폭력 집중단속으로 3557명을 검거하고 이중 221명을 구속했다고 16일 밝혔다. 지난 특별단속(2023년 11월~2024년 10월)에 붙잡힌 규모(2406명)와 비교하면 검거 규모가 반절 가까이 증가했다. 특히 이번 사이버성폭력범죄 단속 유형 중 딥페이크 범죄의 비중이 35.2%로 가장 많았고, 딥페이크 10대 피의자가 61.8%(895명)에 달했다. 10대 피의자들은 딥페이크 범죄를 단순히 ‘놀이’처럼 대수롭지 않게 여겨 범행을 저지르는 경향이 크다고 한다. 이때문에 죄의식 없이 청소년들 사이에서 더 빠르고 광범위하게 퍼진다는 것이다. 경찰 관계자는 “A군이 대화방을 운영하면서 별도로 수익을 취한 것은 없다”면서 “조사해보면 10대 피의자들은 대부분 범행 동기를 ‘성적 호기심’과 ‘장난’이라고 한다”고 설명했다. 김명주 서울여대 정보보호학과 교수는 “AI 기술이 발전해 특별한 지식이나 일정 시간 작업에 대한 투자 없이도 초나 분 단위로 불법 콘텐츠를 제작할 수 있다”며 “사이버성범죄의 피해는 피해자에게 영구적인 상처가 될뿐 아니라 재생산 및 유포 우려도 크기 때문에 처벌을 명확히 하고 윤리 교육도 강화해야 한다”고 했다.
  • 이제는 귀로 구분 불가능?…청취자 97%가 속은 AI 음악의 현실

    이제는 귀로 구분 불가능?…청취자 97%가 속은 AI 음악의 현실

    한 설문조사 결과 대부분의 사람들이 인공지능(AI)으로 생성한 음악을 구분하는 데 어려움을 겪는 것으로 나타났다. 12일(현지시간) 프랑스 음원 스트리밍 서비스 업체 디저(Deezer)는 8개국 9000명을 대상으로 한 설문조사에서 응답자의 97%가 AI가 만든 음악과 인간이 만든 음악을 구분하지 못한다고 밝혔다. 디저는 참가자에게 3곡을 들려준 뒤 어떤 곡이 완전히 AI로 생성한 것인지 맞히도록 하는 방식으로 조사를 진행했다. 조사 결과 응답자 71%는 결과에 충격을 받았다고 전했다. 또한 응답자의 절반 이상(52%)은 ‘차이를 알 수 없다는 사실에 불편함을 느꼈다’고 답했다. 또 ‘AI에 대한 일반적인 인식’ 항목에서 응답자의 55%는 AI로 생성한 음악에 대해 호기심을 느꼈으며, 호기심 때문에 AI로 생성한 음악을 적어도 한 번은 들어볼 의향이 있다고 66%가 응답했다. 그러나 AI 음악에 대한 신뢰도는 상당히 낮았다. 참가자 19%만이 ‘AI로 만든 음악을 신뢰한다’고 답했으며, 51%는 음악 제작에 AI를 활용하면 저품질의 음악을 만들거나 진부하게 들릴 수 있다고 우려했다. 디저 CEO 알렉시스 란터니에르는 “사람들은 음악을 중요하게 여기며 AI가 만든 음악을 구분하고 싶어한다”고 말했다. 또 “AI 음악이 아티스트 생계와 창작 활동에 어떤 영향을 미칠지에 대한 우려도 분명히 존재한다”며 “AI 기업이 저작권 보호 자료를 학습용으로 사용해서는 안 된다”고 강조했다. AI 음악, 실험을 넘어서 대중음악계로 음악 산업에서 AI 기술 도입은 비약적으로 일어나고 있다. 디저 측은 올해 1월 기준 매일 약 1만 곡의 곡이 AI로 생성됐으며, 이는 전체 업로드 곡의 10%라고 설명했다. 또 9월에 들어서는 완전히 AI로 제작된 곡이 하루 3만 곡 이상 공개되는 등 증가 추세를 보였다고 전했다. 디저는 플랫폼 내에서 자체 AI 음악 탐지 도구를 활용해 100% AI 제작곡에는 태그를 붙이는 등 생성형 인공지능 음악을 단속하고 나섰다. 또 지난 9월 글로벌 음악 스트리밍 플랫폼 스포티파이에서는 올해 7500만 개의 ‘스팸성 AI 음악’을 제거했다고 발표했다. AI로 만든 음악이 차트에 진입하고 억대 음반 계약에 성공하는 사례도 생겼다. 가상 아티스트 ‘자니아 모네’(Xania Monet) 등은 ‘음악계의 전환점’이라고 꼽히는 사례다. 자니아 모네는 이달 초 미국 빌보드 R&B 디지털 송 세일즈 차트에서 1위를 차지하며 ‘AI 아티스트 최초’로 빌보드 차트 1위에 올랐다. 또 한 음반 레이블과 300만 달러(약 44억원) 규모의 음반 계약 체결에 성공해 이목을 끌었다. 또 최근 빌보드 컨트리 디지털 송 세일즈 정상에는 AI 아티스트인 브레이킹 러스트의 ‘워크 마이 워크’(Walk My Walk)라는 곡이 올랐다. 법의 사각지대에 놓인 AI 음악 미국 포브스에 따르면 온전히 AI로만 생성한 곡은 저작권 적용 범위 내에 속하지 않는다고 말한다. 미국 저작권청은 현재 ‘인간의 개입으로’ 창작된 노래만 저작권 대상으로 인정하고 있기 때문이다. 스포티파이나 애플뮤직 등 스트리밍 플랫폼이 아직 AI가 생성한 음악을 어떻게 볼 것인지에 대한 명확한 정책을 수립하지 않았기 때문에 현재 대부분 AI 생성 곡은 기존 음악과 동일한 방식을 통해 저작권료를 지급받고 있다고 알려졌다. 법의 경계가 모호해지며 AI 음악을 둘러싼 소송도 발생했다. 지난해 소니 뮤직, 유니버셜 뮤직 등 주요 음반사들은 AI 작곡 프로그램인 수노(Suno)와 우디오(Udio) 등을 상대로 저작권 침해 소송을 제기했다. 저작권자의 허가 없이 저작권이 있는 자료를 기반으로 알고리즘을 학습시켰다는 게 그 이유다. 수노 측은 “자사 시스템은 기존 곡을 단순히 복제하는 것이 아니라 완전히 새로운 결과물을 생성하도록 설계됐다”고 반박하고 나섰다. 이를 두고 음악 산업의 피해를 우려하는 목소리도 커지고 있다. AI 기업에 아티스트가 창작한 데이터를 윤리적으로 학습하라고 요구하는 비영리단체 ‘페얼리 트레인드’ 설립자 에드 뉴턴 렉스는 “AI가 작업물을 무단으로 사용해 유사품을 만들어내는 일이 인간 아티스트 수익을 빼앗는 결과로 이어진다”고 지적했다.
  • ‘이게 AI 음악이야?’ 청취자 97%가 속았다…대중음악 판도 바뀌나

    ‘이게 AI 음악이야?’ 청취자 97%가 속았다…대중음악 판도 바뀌나

    한 설문조사 결과 대부분의 사람들이 인공지능(AI)으로 생성한 음악을 구분하는 데 어려움을 겪는 것으로 나타났다. 12일(현지시간) 프랑스 음원 스트리밍 서비스 업체 디저(Deezer)는 8개국 9000명을 대상으로 한 설문조사에서 응답자의 97%가 AI가 만든 음악과 인간이 만든 음악을 구분하지 못한다고 밝혔다. 디저는 참가자에게 3곡을 들려준 뒤 어떤 곡이 완전히 AI로 생성한 것인지 맞히도록 하는 방식으로 조사를 진행했다. 조사 결과 응답자 71%는 결과에 충격을 받았다고 전했다. 또한 응답자의 절반 이상(52%)은 ‘차이를 알 수 없다는 사실에 불편함을 느꼈다’고 답했다. 또 ‘AI에 대한 일반적인 인식’ 항목에서 응답자의 55%는 AI로 생성한 음악에 대해 호기심을 느꼈으며, 호기심 때문에 AI로 생성한 음악을 적어도 한 번은 들어볼 의향이 있다고 66%가 응답했다. 그러나 AI 음악에 대한 신뢰도는 상당히 낮았다. 참가자 19%만이 ‘AI로 만든 음악을 신뢰한다’고 답했으며, 51%는 음악 제작에 AI를 활용하면 저품질의 음악을 만들거나 진부하게 들릴 수 있다고 우려했다. 디저 CEO 알렉시스 란터니에르는 “사람들은 음악을 중요하게 여기며 AI가 만든 음악을 구분하고 싶어한다”고 말했다. 또 “AI 음악이 아티스트 생계와 창작 활동에 어떤 영향을 미칠지에 대한 우려도 분명히 존재한다”며 “AI 기업이 저작권 보호 자료를 학습용으로 사용해서는 안 된다”고 강조했다. AI 음악, 실험을 넘어서 대중음악계로 음악 산업에서 AI 기술 도입은 비약적으로 일어나고 있다. 디저 측은 올해 1월 기준 매일 약 1만 곡의 곡이 AI로 생성됐으며, 이는 전체 업로드 곡의 10%라고 설명했다. 또 9월에 들어서는 완전히 AI로 제작된 곡이 하루 3만 곡 이상 공개되는 등 증가 추세를 보였다고 전했다. 디저는 플랫폼 내에서 자체 AI 음악 탐지 도구를 활용해 100% AI 제작곡에는 태그를 붙이는 등 생성형 인공지능 음악을 단속하고 나섰다. 또 지난 9월 글로벌 음악 스트리밍 플랫폼 스포티파이에서는 올해 7500만 개의 ‘스팸성 AI 음악’을 제거했다고 발표했다. AI로 만든 음악이 차트에 진입하고 억대 음반 계약에 성공하는 사례도 생겼다. 가상 아티스트 ‘자니아 모네’(Xania Monet) 등은 ‘음악계의 전환점’이라고 꼽히는 사례다. 자니아 모네는 이달 초 미국 빌보드 R&B 디지털 송 세일즈 차트에서 1위를 차지하며 ‘AI 아티스트 최초’로 빌보드 차트 1위에 올랐다. 또 한 음반 레이블과 300만 달러(약 44억원) 규모의 음반 계약 체결에 성공해 이목을 끌었다. 또 최근 빌보드 컨트리 디지털 송 세일즈 정상에는 AI 아티스트인 브레이킹 러스트의 ‘워크 마이 워크’(Walk My Walk)라는 곡이 올랐다. 법의 사각지대에 놓인 AI 음악 미국 포브스에 따르면 온전히 AI로만 생성한 곡은 저작권 적용 범위 내에 속하지 않는다고 말한다. 미국 저작권청은 현재 ‘인간의 개입으로’ 창작된 노래만 저작권 대상으로 인정하고 있기 때문이다. 스포티파이나 애플뮤직 등 스트리밍 플랫폼이 아직 AI가 생성한 음악을 어떻게 볼 것인지에 대한 명확한 정책을 수립하지 않았기 때문에 현재 대부분 AI 생성 곡은 기존 음악과 동일한 방식을 통해 저작권료를 지급받고 있다고 알려졌다. 법의 경계가 모호해지며 AI 음악을 둘러싼 소송도 발생했다. 지난해 소니 뮤직, 유니버셜 뮤직 등 주요 음반사들은 AI 작곡 프로그램인 수노(Suno)와 우디오(Udio) 등을 상대로 저작권 침해 소송을 제기했다. 저작권자의 허가 없이 저작권이 있는 자료를 기반으로 알고리즘을 학습시켰다는 게 그 이유다. 수노 측은 “자사 시스템은 기존 곡을 단순히 복제하는 것이 아니라 완전히 새로운 결과물을 생성하도록 설계됐다”고 반박하고 나섰다. 이를 두고 음악 산업의 피해를 우려하는 목소리도 커지고 있다. AI 기업에 아티스트가 창작한 데이터를 윤리적으로 학습하라고 요구하는 비영리단체 ‘페얼리 트레인드’ 설립자 에드 뉴턴 렉스는 “AI가 작업물을 무단으로 사용해 유사품을 만들어내는 일이 인간 아티스트 수익을 빼앗는 결과로 이어진다”고 지적했다.
  • “3분을 영원하게”…죽은 사람과 대화할 수 있다는 AI 아바타 앱

    “3분을 영원하게”…죽은 사람과 대화할 수 있다는 AI 아바타 앱

    미국의 한 스타트업이 죽은 사람을 인공지능(AI) 아바타로 되살려 대화할 수 있는 애플리케이션을 내놓아 논란이다. 14일(현지시간) 미국 매체 뉴스위크 등은 AI 교육 스타트업 투웨이(2Wai)의 공동창립자인 배우 캘럼 워디가 같은 날 소셜미디어(SNS) 엑스에 애플리케이션 홍보 영상을 공개했다고 보도했다. 문제의 영상을 보면, 임산부가 휴대폰을 통해 세상을 떠난 어머니의 AI 아바타와 대화하는 장면이 등장한다. 이후 세상에 태어난 아기에게 AI 아바타가 동화를 들려주며, 아이가 성인이 되어 손자가 생겼다는 소식을 전하는 장면으로 이어진다. 마지막으로는 “투웨이와 함께라면 3분이 영원해질 수 있다”는 문구로 끝난다. 이 영상은 공개 이후 2260만 회 이상 조회돼 이목을 끌었다. 투웨이 측은 사용자가 생전에 촬영한 짧은 영상을 업로드하면 이를 분석한 후 고인의 외모와 목소리를 흉내 내는 아바타를 생성하는 방식으로 작동한다고 설명한다. 또 역사적 인물과 실존 인물 등 대화 가능한 디지털 아바타(Holo Avatar)를 다양한 버전으로 적용해 여러 모습으로 출력할 수 있다고 소개한다. 현재 이 앱은 애플스토어에서 베타 버전으로 무료 다운로드할 수 있으며, 향후 정식 서비스에서는 구독 기반 모델로 전환할 계획이라고 전했다. 서비스 공개 직후 비판 여론이 강하게 일었다. 이를 본 네티즌들은 “누군가의 슬픔을 사업 기회로 바꿨다”, “정상적인 애도 과정을 피할 또 다른 방법이 등장했다”, “고인의 인격을 모독하는 행위”라는 등 다양한 의견을 내놨다. 또 투웨이 측이 데이터를 이용하는 방식이 불투명하다는 점이 문제로 꼽혔다. 3분짜리 영상으로 “성격, 말투, 외모를 재현한다”고 설명했으나 정확히 어떤 기계학습 모델을 사용하는지, 패턴을 어떻게 파악하는지 등 구체적으로 밝히지 않았다. 또 개인정보 및 데이터 보관 기록 방식 등에 관한 세부적인 정보를 공개하지 않았다는 점도 지적됐다. 투웨이가 내놓은 앱은 죽은 사람을 챗봇 형태로 재현하는 데드봇(Deadbot)의 한 종류다. 지난해 케임브리지대 리버흄 미래 지능 연구센터(FCFL)가 발표한 논문을 보면, 기업이 데드봇 서비스를 상업적으로 이용하거나 미성년자를 대상으로 사용할 경우 심각한 심리적 피해를 줄 수 있다고 주장했다. 비윤리적인 기업에서 데드봇 기술을 이용해 광고 메시지를 보내는 등 부적절하게 이용해 수익을 창출할 경우 유족에게 심리적 타격을 입힐 수 있으며, 특히 부모를 잃고 남겨진 아이가 정상적인 애도 과정을 겪을 수 없도록 만들어 피해를 초래할 수 있다고 지적했다. 논문 공동 저자 카타지나 노바치크-바신스카 박사는 “이 AI 영역은 현재 윤리적 지뢰밭”이라며 “망자의 존엄을 최우선에 두고 이 기술이 금전적 동기에 의해 악용되지 않도록 해야 한다”고 경고했다.
  • ‘죽은 사람과 대화하세요’…美 구독형 AI 아바타 앱 논란 [핫이슈]

    ‘죽은 사람과 대화하세요’…美 구독형 AI 아바타 앱 논란 [핫이슈]

    미국의 한 스타트업이 죽은 사람을 인공지능(AI) 아바타로 되살려 대화할 수 있는 애플리케이션을 내놓아 논란이다. 14일(현지시간) 미국 매체 뉴스위크 등은 AI 교육 스타트업 투웨이(2Wai)의 공동창립자인 배우 캘럼 워디가 같은 날 소셜미디어(SNS) 엑스에 애플리케이션 홍보 영상을 공개했다고 보도했다. 문제의 영상을 보면, 임산부가 휴대폰을 통해 세상을 떠난 어머니의 AI 아바타와 대화하는 장면이 등장한다. 이후 세상에 태어난 아기에게 AI 아바타가 동화를 들려주며, 아이가 성인이 되어 손자가 생겼다는 소식을 전하는 장면으로 이어진다. 마지막으로는 “투웨이와 함께라면 3분이 영원해질 수 있다”는 문구로 끝난다. 이 영상은 공개 이후 2260만 회 이상 조회돼 이목을 끌었다. 투웨이 측은 사용자가 생전에 촬영한 짧은 영상을 업로드하면 이를 분석한 후 고인의 외모와 목소리를 흉내 내는 아바타를 생성하는 방식으로 작동한다고 설명한다. 또 역사적 인물과 실존 인물 등 대화 가능한 디지털 아바타(Holo Avatar)를 다양한 버전으로 적용해 여러 모습으로 출력할 수 있다고 소개한다. 현재 이 앱은 애플스토어에서 베타 버전으로 무료 다운로드할 수 있으며, 향후 정식 서비스에서는 구독 기반 모델로 전환할 계획이라고 전했다. 서비스 공개 직후 비판 여론이 강하게 일었다. 이를 본 네티즌들은 “누군가의 슬픔을 사업 기회로 바꿨다”, “정상적인 애도 과정을 피할 또 다른 방법이 등장했다”, “고인의 인격을 모독하는 행위”라는 등 다양한 의견을 내놨다. 또 투웨이 측이 데이터를 이용하는 방식이 불투명하다는 점이 문제로 꼽혔다. 3분짜리 영상으로 “성격, 말투, 외모를 재현한다”고 설명했으나 정확히 어떤 기계학습 모델을 사용하는지, 패턴을 어떻게 파악하는지 등 구체적으로 밝히지 않았다. 또 개인정보 및 데이터 보관 기록 방식 등에 관한 세부적인 정보를 공개하지 않았다는 점도 지적됐다. 투웨이가 내놓은 앱은 죽은 사람을 챗봇 형태로 재현하는 데드봇(Deadbot)의 한 종류다. 지난해 케임브리지대 리버흄 미래 지능 연구센터(FCFL)가 발표한 논문을 보면, 기업이 데드봇 서비스를 상업적으로 이용하거나 미성년자를 대상으로 사용할 경우 심각한 심리적 피해를 줄 수 있다고 주장했다. 비윤리적인 기업에서 데드봇 기술을 이용해 광고 메시지를 보내는 등 부적절하게 이용해 수익을 창출할 경우 유족에게 심리적 타격을 입힐 수 있으며, 특히 부모를 잃고 남겨진 아이가 정상적인 애도 과정을 겪을 수 없도록 만들어 피해를 초래할 수 있다고 지적했다. 논문 공동 저자 카타지나 노바치크-바신스카 박사는 “이 AI 영역은 현재 윤리적 지뢰밭”이라며 “망자의 존엄을 최우선에 두고 이 기술이 금전적 동기에 의해 악용되지 않도록 해야 한다”고 경고했다.
  • 이종태 서울시의원, 서울시교육청 AI 교육 및 유아-초등 연계 교육 개선 방향 제시

    이종태 서울시의원, 서울시교육청 AI 교육 및 유아-초등 연계 교육 개선 방향 제시

    서울시의회 교육위원회 이종태 의원(국민의힘, 강동2)은 지난 10일과 11일 열린 제333회 정례회 행정사무감사 질의에서 AI 디지털 교육과 유아-초등 교육 연계에 대해 심도 있는 지적과 함께 정책 개선을 촉구했다. 이 의원은 AI 디지털 교육의 방향성에 대해 “기술 중심의 교육이 주로 다뤄지고 있지만, 교육의 본질인 비판적 사고와 윤리적 판단 능력을 기르는 과정이 미흡하다”고 지적하며 “서울시교육청은 AI 교육을 단순한 도구 사용법을 넘어서 학생들이 정보의 신뢰성을 평가하고 알고리즘의 윤리적 문제를 이해하는 교육으로 확장해야 한다”고 강조했다. 또한 “AI 교육의 진정한 목적은 기술 숙련이 아닌 학생들이 비판적이고 책임감 있게 기술을 활용하는 능력을 배양하는 것”이라고 덧붙였다. 이어 서울시교육청이 올해 AI 교원 연수 대상을 1만 명 이상으로 확대한다고 밝힌 것에 대해 “현재 연수는 대부분 활용 중심의 실습형 교육에 집중되어 있어 AI에 대한 비판적 리터러시 교육이 부족하다”고 지적했다. 이에 따라 “향후 교원 연수는 기술 활용에 그치지 않고 AI 교육의 철학과 윤리, 데이터 공정성 등을 포함한 심화 교육이 필요하다”고 역설했다. 서울시교육청은 AI 디지털 교육을 위한 다양한 정책을 추진하고 있으며, 교원 연수 확대 및 디지털 교과서 활용 등을 강화할 계획을 밝혔다. 이 의원은 “기술의 속도에 맞춰 교육이 발전하는 것도 중요하지만, 그보다 교육의 깊이가 더욱 중요하다”며 “AI 교육은 단순히 도구를 익히는 것이 아니라, 학생들이 기술을 올바르게 활용하고 사회적 책임을 다하는 능력을 키우는 방향으로 나아가야 한다”고 강조했다. 한편, 이 의원은 유아-초등 교육 연계 정책을 지적하며 “유아교육과 초등교육의 연계가 지역별로 불균형을 보인다”고 밝혔으며 “특히 특정 지역은 유치원과 초등학교 간 매칭이 증가했지만, 다른 지역에서는 오히려 감소하고 있어 이 문제를 해결하기 위한 정책적 노력이 필요하다”고 말했다. 덧붙여 “유아교육과 초등학교 간의 원활한 연계는 아이들의 발달과 사회성 증진에 중요한 영향을 미치므로 이를 균등하게 추진할 수 있는 방안이 필요하다”고 덧붙였다.
  • 장윤정 경기도의원 “AI 활용 유아평가, 개인정보 보호 기준 강화해야”

    장윤정 경기도의원 “AI 활용 유아평가, 개인정보 보호 기준 강화해야”

    경기도의회 교육기획위원회 장윤정 의원(더불어민주당, 안산3)은 경기도교육청 북부유아체험교육원이 제작·배포한 ‘인공지능(AI) 활용 유아 놀이 분석·평가 자료’와 관련해 개인정보 유출 가능성을 우려하며, 구체적인 보안 대책과 학부모 동의 절차 마련을 촉구했다. 장윤정 의원은 지난 12일 열린 2025년도 경기도교육연구원, 경기도교육복지종합센터, 경기도교육청 남부·북부유아체험교육원 행정사무감사에서 “AI 도입은 편리성만 강조할 것이 아니라, 법적 책임·보호장치·유출 시 대응 체계를 반드시 함께 논의해야 한다”며 이같이 지적했다. 경기도교육청 북부유아체험교육원은 지난 10월 유아교육 현장의 교사들이 구글의 인공지능(AI)을 활용해 유아의 놀이 장면을 분석하고 평가할 수 있도록 하는 내용의 리플릿과 영상자료를 제작·배포했다고 밝혔다. 장윤정 의원은 “교사가 개인정보를 보호하려고 해도 실제 유아의 반 구성 정보, 나이 등 식별 가능 정보가 포함될 여지가 충분하다”며, “개인정보보호법상 민감정보는 최대 5년까지 보관되는데, 교육청이 AI에 저장된 아이들의 영상과 행동 데이터가 5년 뒤 완전히 삭제되는지조차 확인하지 않았다”고 문제를 제기했다. 이에 대해 정재영 북부유아체험교육원장은 “교사 연수를 통해 디지털 윤리를 교육했다”고 설명했지만, 장윤정 의원은 “연수만으로 모든 위험을 예방할 수 있다는 것은 착각”이라며, “딥페이크 사례처럼 기술은 의도와 다르게 악용될 수 있는 만큼 도입 단계부터 대비책을 마련해야 한다”고 강조했다. 또한 장윤정 의원은 “학부모에게 AI로 아이의 영상·사진을 분석해도 되는지 묻지 않은 것은 절차적 정당성을 확보하지 않은 조치”라며, “개인정보 보호·보관·폐기 기준 마련 및 학부모 동의 절차 등을 포함한 구체적인 대책을 마련해 추후 보고해 달라”고 주문했다.
  • [데스크 시각] 기술이 윤리적 경계를 흐릴 때

    [데스크 시각] 기술이 윤리적 경계를 흐릴 때

    우리는 언제부턴가 기계가 건네는 위안을, 편의를 자연스럽게 받아들이기 시작했다. 외로움을 달래 주는 ‘말벗’ 앱부터, 길 안내 지도, 서류 작성을 돕는 도우미까지 인공지능(AI)은 우리의 일상에 완벽히 스며들었다. 편리한 그만큼 그림자도 짙어졌다. 기술이 윤리적 경계를 흐리는 일이다. 최근 해외에서 화제가 된 AI 동반자 ‘프렌드’(Friend)가 그 하나의 사례다. 목걸이 형태의 웨어러블 AI인 이 장치는 사용자의 일상을 사실상 24시간 함께한다. 언제, 어디서, 누구와 나눈 대화인지 듣고 그 내용을 바탕으로 공감과 대화를 건넨다. 개발사는 ‘곁을 지켜 주는 디지털 동반자’라고 소개했다. 하지만 미국 등에서 일부 시민들은 ‘우리는 가짜 친구가 필요 없다’, ‘인간관계의 대체물’이라며 격렬하게 반발했다. 기술 수용의 속도와 사회적 합의의 불일치가 드러난 한 단면이다. 국내에서도 AI의 기능과 책임을 둘러싼 논쟁이 현실로 다가왔다. 연세대의 한 대형 강의에서 비대면 중간고사 중 상당수 학생이 챗GPT 등 AI를 활용해 답안을 작성한 정황이 드러났다. 수백명에 이르는 집단적 부정행위 의혹이 제기되며 학내외 논란을 불러일으켰다. 이 사태가 남긴 질문은 단순히 “AI를 썼느냐”를 넘어 “우리는 이 기술을 어디까지 허용할 것인가”에 닿아 있다. 두 사례는 같은 축 위에 있다. 하나는 기술이 ‘친구’라는 이름으로 사적인 영역까지 파고들 때의 위험을, 다른 하나는 기술이 ‘손쉬운 편법의 도구’로 악용된 상황을 보여 준다. 기술이 제도와 윤리의 경계선 어딘가에 서 있는 모습이다. AI는 분명 유용한 도구다. 의료 현장에서 진단 정확도를 높이고, 재난을 예측하며, 장애인의 의사소통을 돕는다. 그러나 동시에 교육의 신뢰를 무너뜨리고, 사생활을 침범하며, 인간의 감정을 흉내 내는 데 쓰이기도 한다. ‘어디까지가 인간의 일이고, 어디서부터가 기계의 일인지’에 대한 사회적 합의는 아직 없다. 기술은 중립적이지 않다. 누구의 손에, 어떤 목적과 규칙으로 주어지느냐에 따라 도구가 되기도 하고 무기가 되기도 한다. 실상 아직 AI가 완전한 것도 아니다. 여전히 주변에서는 AI가 존재하지 않는 사실을 꾸며 자료를 만들었다거나, ‘곧 끝난다’고 해 놓고 실제로는 작업의 1%도 진행하지 않았다는 불만이 나온다. 기술의 미비함 역시 현실의 한 단면이다. 해결의 실마리는 결국 사람에게 있다. 첫째, 교육 현장에서 AI 사용을 단순히 금지하는 것만으로는 문제를 해결할 수 없다. AI를 어떻게 정당하게 활용할지, 출처와 책임을 어떻게 표기할지를 가르치는 실질적인 커리큘럼과 평가 체계가 필요하다. 둘째, 개인정보와 사생활의 경계는 기술의 설계 단계에서부터 정립해야 한다. 단순한 동의 절차가 아니라 사용자가 실질적으로 통제권을 행사할 수 있어야 한다. 셋째, 기업과 플랫폼은 ‘혁신’이라는 명분으로 사회적 합의 없이 새로운 생활 영역을 창조하지 말아야 한다. 넷째, AI에 의존하기 이전에 사실 관계와 출처를 확인하는 단계를 반드시 거쳐야 한다. 기술은 시장의 속도만으로 정당화되지 않는다. 마지막으로 법과 규범은 기술의 발전을 뒤쫓아 가는 것이 아니라 최소한의 안전망을 먼저 마련해야 한다. 개인정보 보호, 알고리즘 투명성, 교육 윤리 등 각 영역에서의 기본 규칙을 사회적 논의로 서둘러 정립해야 한다. 그래야 AI와 공존하되 인간의 관계와 신뢰를 기계에 빼앗기지 않는다. AI의 진화가 두려운 것은 인간의 능력을 넘어설까 하는 우려 때문만이 아니다. 인간의 책임과 윤리 의식을 마비시킬 수 있기 때문이다. 지금 필요한 것은 더 빠른 기술이 아니라 더 깊은 성찰이다. 백민경 사회부장
  • 인공지능 정책 총괄 자문, ‘경기도 인공지능위원회’ 출범

    인공지능 정책 총괄 자문, ‘경기도 인공지능위원회’ 출범

    경기도가 추진 중인 모든 인공지능 정책의 방향성과 실행 방안을 점검하고 자문하는 역할을 맡게 될 AI정책 전담 자문기구, ‘경기도 인공지능위원회’가 공식 출범했다. 11일 경기도서관 AI스튜디오에서 출범한 경기도 인공지능위원회는 ‘경기도 인공지능 기본조례’를 근거로 신설된 공식 자문기구다. 행정과 산업, 기술과 윤리, 공공과 민간을 연결하는 ‘AI 협의 플랫폼’으로서 ‘사람 중심의 책임 있는 AI’를 핵심 가치로 심의안건이 발생하는 대로 수시 개최될 예정이다. 위원회는 기업, 학계, 법조계, 도의원, 시민단체 등 AI 분야 전문가 22명으로 구성됐다. 출범식에서는 민간 위원 19명에 대한 위촉식이 이뤄졌다. 민간 위원들은 ▲AI정책·윤리 ▲AI융합산업 ▲AI혁신행정 등 3개 분과에 배정됐다. 앞으로 경기도 인공지능 종합계획 수립, AI 산업육성, 윤리 기준 설정, AI 행정서비스 확대 등에 대해 자문하고 정책 실행을 견인할 계획이다. AI정책·윤리 분과는 김명주 과학기술정보통신부 AI안전연구소장이 분과위원장을 맡았다. 도민 대상 AI서비스에 대한 자문과 AI의 공정성, 투명성, 책임성 확보에 관한 사항과 경기도 각 실국의 AI활용 사업에 대한 자문을 담당하게 된다. AI융합산업 분과는 김현곤 경기도경제과학진흥원장이 분과장을 맡았다. AI기업의 기술개발, 사업화 등 기업육성에 필요한 사업 지원과 AI산업 집적단지, 연구기관 등 클러스터 구축, AI 인재양성, AI 관련 산학연 협력에 관한 사항을 담당한다. AI혁신행정분과는 고영인 경기도 경제부지사를 위원장으로 도청 내부의 행정서비스 분야의 AI 적용, AI관련 정보보안과 인프라 고도화 사업에 대한 자문을 담당할 예정이다. 출범식에서 김동연 경기도지사는 “(위원회 활동을)경계와 한계 없이 했으면 좋겠다. 물론 결정한 게 도정에 100% 반영된다고 장담할 수 없겠지만 가능하면 튀는 아이디어로 영감을 얻고 도정에 반영했으면 한다”라고 말했다. 이어 “경기도가 AI국을 대한민국 최초로 만들었다”며 “전문가와 현장에 계신 분 등 각계각층에서 오셨으니 좋은 의견 많이 주시고 도와달라”라고 덧붙였다. 김 지사와 함께 공동위원장으로 선출된 강경란 아주대학교 소프트웨어융합대학 학장은 “AI 기술을 추진하지만 사람이 소외되면 안 된다는 게 중요하다. 도정이라는 맥락에서 기술 발전을 통한 산업의 부흥, 경제가 좋아지는 것, 사람들이 혜택을 받는 것과 함께 소외되는 계층이 최소화되길 바란다”고 말했다.
  • 고준호 경기도의원, ai 말벗 서비스 개인정보보호 구멍

    고준호 경기도의원, ai 말벗 서비스 개인정보보호 구멍

    경기도의회 고준호 의원(국민의힘, 파주1)은 10일(월) 열린 제387회 정례회 보건복지위원회 행정사무감사에서 경기도사회서비스원이 추진 중인 「AI 노인말벗서비스」에 대해 강력하게 질타했다. 고준호 의원은 “기술의 진보보다 더 중요한 것은 도민의 신뢰와 개인정보 보호”라며 지적했다. 고준호 의원은 “AI 돌봄은 좋은 취지지만, 개인정보보호법 위반 소지가 다수 존재한다”며, “도민의 목소리와 감정, 건강 상태가 담긴 민감한 데이터를 민간 클라우드에서 처리하고 있는데, 도민은 이를 전혀 알지 못한다”고 지적했다. 고준호 의원은 먼저 사업 구조의 불투명성을 문제 삼았다. “경기도사회서비스원이 세종네트웍스를 사업수행기관으로 선정했고, 세종은 네이버클라우드와 함께 컨소시엄 형태로 사업을 수행하고 있다”며, “결국 네이버클라우드 서버가 어르신의 음성데이터를 분석·보관하고, 경기도는 결과 리포트만 받는 구조다. 그런데 신청서에는 세종네트웍스나 네이버클라우드의 이름이 어디에도 없다”고 비판했다. 이어 “개인정보보호법 제17조는 제3자 제공 시 제공받는 자의 명칭과 보관 위치를 명시하도록 하고 있다”며, “경기도민 동의의 실효성을 무너뜨리는 불투명한 동의서”라고 강조했다. 고준호 의원은 또한 ‘AI 학습’ 목적 고지의 누락과 민감정보 관리의 부실을 지적했다. “과업지시서에는 ‘AI 학습·모델 개선·대화 데이터 구축’이 명시됐는데, 신청서에는 단순히 ‘서비스 제공’으로만 적혀 있다. 어르신의 목소리가 인공지능 학습에 활용된다는 사실을 고지하지 않은 것은 위법 소지”라며, “서비스 철회권 안내조차 없어 어르신이 자신의 데이터 삭제를 어떻게 요청해야 하는지도 알 수 없다”고 질타했다. 고준호 의원은 세종네트웍스가 네이버클라우드와 협력하는 재위탁 구조 속에서 경기도사회서비스원의 관리·감독이 부실하다고 지적했다. 고 의원은 사업 담당 팀장에게 “감독한 적 있느냐”고 묻자 “없다”고 답했고 고 의원은 “개인정보보호법 제26조 제4항의 ‘수탁자 감독의무’ 위반 소지가 있다”고 꼬집었다. 고 의원은 최근 입찰 평가 기준 변경과 관련해 “기존 수행업체에 유리하도록 편향된 구조”라고 강력히 지적했다. 그는 “기존 건수 중심에서 금액 중심으로, 기술력보다 인력 수와 안정성을 중시하는 방식으로 평가가 바뀌었다”고 밝혔다. 또한, 필수 제출 서류인 지방세·4대보험 완납증명서가 행정 점검 없이, 의원 요구 후에야 제출됐다며 “행정 절차 또한 미흡했다”고 꼬집었다. 고 의원은 끝으로 “AI는 도민의 삶 속으로 들어오는 기술이기에, 개인정보의 투명성과 윤리 기준이 그 무엇보다 중요하다”며, “‘더 똑똑한 기술’보다 ‘더 안전하고 투명한 행정’이 먼저”라고 강조했다.
  • ‘AI 커닝’ 연세대 발칵… 기술 발전 속 ‘윤리 공백’ 커지는 대학

    ‘AI 커닝’ 연세대 발칵… 기술 발전 속 ‘윤리 공백’ 커지는 대학

    연세대 한 대형 강의 중간고사에서 챗GPT 등 인공지능(AI)을 사용한 집단 부정행위 정황이 드러나 논란이 일고 있다. 대학가를 중심으로 학교 현장 깊숙이 자리 잡은 AI가 부정행위에도 동원되면서 AI 사용 윤리 기준 등을 신속하게 정립해야 한다는 지적이 나온다. 9일 서울신문 취재를 종합하면 연세대 신촌캠퍼스의 3학년 대상 수업 ‘자연어 처리(NLP)와 챗GPT’ 담당 교수는 최근 “지난달 25일 시험에서 학생들의 부정행위가 다수 발견됐다”며 적발된 학생들의 중간고사 점수를 ‘0점’ 처리하겠다고 공지했다. 자연어 처리와 거대언어모델(LLM) 등 생성형 AI를 가르치는 이 수업은 ‘AI 융합심화전공 프로그램’ 이수에 필요한 핵심 과목으로 약 600명이 수강하는 것으로 알려졌다. 인원이 많아 수업과 중간고사는 비대면으로 진행됐다. 부정행위 방지 차원에서 응시자에게 시험시간 내내 컴퓨터 화면과 손·얼굴이 나오는 영상을 찍어 제출하도록 했다. 하지만 일부 학생들은 촬영 각도를 조정해 사각지대를 만들거나 화면에 창을 여러 개 띄우는 방식 등으로 시선을 돌린 뒤 그사이 AI를 사용해 시험 문제를 푼 것으로 알려졌다. 이 시험과 관련해 대학생 커뮤니티 ‘에브리타임’ 게시판 익명 투표에선 387명 중 ‘커닝했다’가 211명, ‘직접 풀었다’가 176명이라는 결과가 나왔다. 이 수업을 듣고 있는 재학생 김모(22)씨는 “지난해 같은 강의에서도 비슷한 일이 발생했는데, 또 이런 일이 벌어져 ‘이번엔 정말 다 걸리겠구나’라고 생각했다”고 전했다. 제출된 영상을 검토하던 중 부정행위 정황을 발견한 해당 교수는 “자수하지 않는 분들은 학칙에 따라 엄중히 처벌하겠다. 이번엔 부정행위와 끝장을 볼 생각”이라고 밝혔다. 학칙에는 부정행위 시 0점 처리와 유기정학 처분 등을 할 수 있게 돼 있다. 연세대 관계자는 “40명 정도가 부정행위를 자수했고 의심되는 10여명은 아직 자수하지 않았다”며 “자수하지 않은 학생의 부정행위가 확인되면 징계를 검토할 수 있다”고 밝혔다. 문제는 국내 대학 교육 전반에 AI가 빠르게 확산하고 있지만 아직 상당수 대학은 구체적인 활용 기준이나 대응 체계를 마련하지 못한 상태라는 점이다. 지난해 한국대학교육협의회가 대학 총장 190명을 대상으로 진행한 설문조사 결과 ‘생성형 AI 관련 학교 정책을 채택·적용했다’고 응답한 비율은 22.9%에 그쳤다. 조상식 동국대 교육학과 교수는 “AI에 대한 과도한 의존은 학습 효율 저하, 창의력 상실 등을 불러올 수 있다”며 “학교 차원에서의 가이드라인 마련을 포함해 AI 사용에 대한 윤리 기준이 필요하다”고 말했다.
  • 김미숙 경기도의원 “AI 의료진단 사업 홍보 미흡…공공의료원 협업 강화해야”

    김미숙 경기도의원 “AI 의료진단 사업 홍보 미흡…공공의료원 협업 강화해야”

    경기도의회 미래과학협력위원회 김미숙 의원(더불어민주당, 군포3)은 AI국 행정사무감사에서 AI 영상보조진단 시스템 및 AI 유방암 진단 사업에 대해 “기술 도입은 긍정적이지만, 도민이 체감할 수 있도록 홍보와 협업을 강화해야 한다”고 밝혔다. 김 의원은 “해당 사업의 목표는 영상 데이터 수집·기반 구축과 취약계층 지원에 있다”며 “흉부·뇌 CT/MRI, 유방촬영 등 실제 검사와 연계되는 만큼, 홍보가 중요하다”고 강조했다. 이에 김기병 AI국장은 “현재 보도매체와 경기도경제과학진흥원(경과원) 채널을 통해 홍보를 진행하고 있다”고 답변했다. 김 의원은 “실제로 사업을 수행하는 경기도의료원 홈페이지에 들어가 보니 관련 홍보 게시글이 없었다”며 “사업의 혜택을 직접 받게 되는 도민들이 알 수 있도록 공공의료원을 중심으로 홍보를 강화해야 한다”고 지적했다. 또한 김 의원은 AI와 의료기술의 연계는 취지가 긍정적이라고 평가하며 “고독사 예방 스마트 디바이스 모니터링 등 생활밀착형 사업의 실효성을 높이려면 추가 데이터를 보완해 위험 신호를 정밀하게 포착할 수 있어야 한다”고 덧붙였다. 아울러 김 의원은 “개인정보보호법과 의료법의 취지를 충분히 고려하고, 위법사항이 없도록 검토하여 사업이 원활히 추진될 수 있도록 해야 한다”며, “민감정보가 수반되는 만큼 법적·윤리적 기준을 명확히 하길 바란다”고 당부했다.
  • ‘적극적 윤리경영으로 ESG의 진정성을 묻다’…양재용 한양대 교수, ‘ESG, 얼마나 윤리적인 선택인가’ 출간

    ‘적극적 윤리경영으로 ESG의 진정성을 묻다’…양재용 한양대 교수, ‘ESG, 얼마나 윤리적인 선택인가’ 출간

    ‘ESG는 과연 얼마나 윤리적인가’ 국내에서 ESG(환경·사회·지배구조)가 기업 경영의 새로운 표준으로 자리 잡아가고 있는 가운데 양재용(한양대 산업융합학부·기술경영전문대학원) 교수가 ESG 경영의 구조적 한계를 진단하고, 윤리 경영을 통한 적극적 실행가능성을 모색하는 책을 출간했다. 양 교수는 최근 출간한 ‘ESG, 얼마나 윤리적인 선택인가’(도서출판 청람)를 통해 ESG를 윤리경영의 관점에서 고찰했다. 양 교수는 ESG를 단순히 지속가능경영의 기술적 프레임이나 투자 판단 기준으로 보지 않고, 그 이면에 자리한 윤리적 기반의 결핍을 지적한다. 규제에 갇힌 ESG, ‘소극적 윤리경영’의 한계이 책에 따르면 오늘날 대부분의 기업은 ESG를 규제 대응 수단으로 받아들인다. 보고서를 작성하고, 공시 의무를 이행하며, 각종 평가기관의 등급을 관리한다. 그러나 양 교수는 이러한 흐름을 ‘소극적 윤리경영’(passive ethical management)으로 규정한다. 이는 외부의 압력이나 제도적 규제를 준수하기 위해 최소한의 윤리만을 실행하는 한계에 빠질 수 있다는 지적이다. ESG를 의무로 수행하되, 그 안에 자발적 가치나 철학이 부재하다는 설명이다. 이 책에서 양 교수는 ESG 규제를 소극적 윤리경영의 한계에 머무른 것으로 본다. 규제는 기업이 일정 수준의 윤리적 행동을 하도록 유도하지만, 그것은 ‘윤리의 외피를 두른 관리 시스템’에 불과하다는 것이다. ESG의 해답, ‘적극적 윤리경영’의 실천규제 준수는 도덕적 성찰을 대신할 수 없으며, 기업의 지속가능성을 진정으로 담보하는 데 한계가 있다. 결국 ESG가 ‘평가의 언어’로만 남는다면, 그것은 윤리의 제도화에 그칠 뿐이다. 양 교수는 이러한 현실에 대해 “ESG가 경영 전략의 표어가 된 순간, 그 본래의 윤리적 힘은 약화된다”고 지적했다. 양 교수는 대안으로 ‘적극적 윤리경영’(active ethical management)을 제시한다. 이는 규제나 평가의 틀을 넘어, 윤리를 경영의 중심 가치이자 실행 원리로 삼는 체계다. 적극적 윤리경영의 핵심은 자발성과 내재화다. 법이 요구하지 않아도, 기업 스스로 인간과 사회, 환경의 지속가능성을 위해 결단하고 실천하는 구조를 뜻한다. 이 책은 ESG의 세 축을 각각 새로운 윤리의 관점에서 재해석한다. ‘환경’은 탄소 감축이나 녹색 인증을 넘어, 인간과 비인간의 공존을 설계하는 생태적 책임의 철학이다. ‘사회’는 기부나 사회공헌의 외형이 아니라, 조직 내부의 정의와 포용, 노동 존중의 문화를 구축하는 일이다. ‘지배구조’는 의사결정의 투명성 확보를 넘어, 윤리적 책임과 행동의 제도화로 나아가야 한다. 윤리는 비용이 아니라 신뢰의 자본그는 “적극적 윤리경영은 ESG를 윤리적 실천의 언어로 되돌려놓는 과정”이라고 설명했다. ESG가 진정한 사회적 신뢰를 얻기 위해서는, 규제 중심의 소극적 체계를 넘어 윤리의 내면화를 통해 자기 혁신을 이뤄야 한다고 강조했다. 이 책이 흥미로운 이유는 윤리를 단순한 도덕담론이 아니라 ‘경제적 자산’으로 해석한다는 점이다. 저자는 윤리적 경영이 단기적으로는 비용처럼 보일 수 있지만, 장기적으로는 신뢰라는 ‘보이지 않는 자본(invisible capital)’을 축적한다고 설명한다. 다시말해 ESG를 신념이 아닌 계산으로 접근하는 기업은 결국 ‘신뢰의 비용’을 지불하게 되며, 반대로 윤리를 중심에 둔 기업은 사회적 지지를 통해 지속가능한 경쟁력을 확보한다. ESG, 윤리의 언어로 복원해야이러한 관점은 행동경제학과 조직신뢰 이론과도 맞닿아 있다. 저자는 전통 경제학이 효율성을 중시했다면, 미래의 경제는 ‘정당성(legitimacy)’을 핵심 변수로 삼아야 한다고 말한다. 정당성은 사회적 신뢰를 통해 시장의 지속 가능성을 담보한다. ESG의 진정성은 제도적 정교함이 아니라, 윤리적 정당성의 구축에서 비롯된다는 주장이다. 이 책은 ESG의 유행과 피로감이 교차하는 현시점에서 세 가지 중요한 성찰의 지점을 제시한다. ESG는 더 이상 보고서나 평가 등급의 문제가 아니라, 인류와 기업이 함께 지속가능한 관계를 만들어가는 윤리의 문제라는 것이다. 첫째는 윤리의 자발화다. 외부의 규제가 아니라 내부의 신념에 기반한 ESG 실행이다. 둘째는 가치의 내재화다. ESG를 조직문화로 정착하여 새로운 가치 창출의 동력으로 전환하는 것이다. 셋째는 책임의 확대다. 기업을 넘어 이해관계자 전반으로 윤리적 책임을 확장하는 것을 말한다. 이 원칙들이 바로 ‘적극적 윤리경영’의 토대다. ESG가 규제 중심의 프레임에서 벗어나기 위해서는, 기업의 의사결정 전반에 이해관계자에 대한 윤리적 책임이 자리 잡아야 한다. 그것이 ESG의 진정성을 회복하는 길이다. 책의 결론은 명확하다. ‘윤리적 선택이야말로 가장 전략적인 선택’이라고 강조한다. ESG를 단순한 경영기법으로 여기는 기업은 오래가지 못한다. 반대로 윤리를 전략의 중심에 둔 기업은 사회적 신뢰를 얻고, 장기적 성장의 동력을 확보한다. ‘ESG, 얼마나 윤리적인 선택인가’는 ESG를 숫자와 지표의 언어에서 해방시켜, 윤리와 철학의 언어로 복원하는 책이다. 이 책은 ESG를 고민하는 모든 기업인과 정책 담당자, 그리고 사회적 책임을 묻는 시민들에게 다음과 같은 묵직한 질문을 던진다. ‘당신의 ESG는 얼마나 윤리적인가’ 이 물음에 답하기 위해, 이제 우리 사회는 소극적 윤리경영을 넘어 적극적 윤리경영의 시대로 나아가야 한다. 그것이 인류와 기업이 함께 지속가능한 미래를 만들어가는 유일한 길이다.
  • [사설] AI 대전환 시대… 기술 진보·인간 존엄의 균형점 찾아야

    [사설] AI 대전환 시대… 기술 진보·인간 존엄의 균형점 찾아야

    우리는 지능형 기술이 일상을 변혁시키는 시대의 변곡점에 서 있다. 지금 우리 사회가 직면한 가장 큰 과제는 인공지능(AI)이 대변하는 과학 진보와 인간 존엄 사이에서 균형을 찾는 것이다. 어제 서울 중구 신라호텔에서 열린 ‘2025 서울미래컨퍼런스’는 그런 시대적 고민을 깊게 나눈 자리였다. 10회째인 이번 행사에서는 ‘인간 중심 AI 전환’에 대한 국내외 전문가들의 관심이 뜨거웠다. AI가 가져올 변화의 폭과 속도는 문자 그대로 혁명적이다. AI 기반의 도시 혁신 모델인 ‘AX시티’에서는 교통사고나 침수·화재 같은 안전사고를 사전에 예측해 해결할 수 있다. 시민 개개인에 특화된 AI 서비스를 제공하는 미래가 빠르게 현실로 다가오고 있다. 로봇 의수부터 휴머노이드까지 인간과 기계의 경계는 점점 모호해진다. 교육을 비롯한 생활 전반의 환경도 급변하고 있다. 도제식 전수가 전부였던 판소리 같은 전문 교육 영역도 AI 플랫폼이 간단히 문턱을 낮췄다. 기업과 산업 현장에서의 AI 기술 도입 속도는 아찔하다. 6G 등 초저지연 통신과 결합할 초연결 도시에서는 AI 융합 방식의 ‘지능형 네트워크’가 스스로 상황을 판단하고 최적화된 서비스를 제공한다. 자율 목표를 수행하는 ‘에이전트 AI’ 도입으로 기업 업무 혁신의 새로운 전기도 마련되고 있다. 그러나 기술적 진보가 인간의 행복과 존엄을 보장할 수는 없다. AI가 인간의 일자리를 대체하면서 유발되는 사회적 갈등, 알고리즘에 의한 차별과 편견, 개인정보 침해와 감시사회로의 전락 등은 반드시 해결해야 할 과제들이다. 특히 디지털 격차에 따른 사회적 약자의 소외 문제는 우리 사회에 기술 발전의 짙은 그늘로 드리워질 우려가 크다. ‘AI 3대 강국’ 도약을 선언한 정부는 AI 특화 시범도시 사업 예산을 편성하고 AI 생태계 조성과 규제 개선을 통해 기술 경쟁력 확보에 나서고 있다. 기술 개발뿐 아니라 AI 윤리 가이드라인 수립과 사회적 안전장치 마련에도 같은 수준의 관심을 기울여야 한다. AI는 생산성을 높이지만 일자리 감소와 감시사회로 이어질 위험성도 크다. ‘AI의 두 얼굴’에 선제적으로 대응할 지혜가 절실하고 다급한 시점이다. AI 시대에 필수적인 창의성과 비판적 사고력, 소통 능력과 윤리의식을 두루 갖추려면 지식 전달 위주인 기존 교육체계의 전환도 필수적이다. AI 대전환 시대의 성패는 기술을 얼마나 인간다운 방식으로 활용하느냐에 달렸다. 서울미래컨퍼런스에서 제시된 비전이 기술혁신을 넘어 모든 시민이 존엄하게 누릴 미래 사회의 든든한 로드맵이 되기를 기대한다.
  • “배우는 시대는 끝났다, 정답 아닌 질문 교육으로”[2025 서울미래컨퍼런스]

    “배우는 시대는 끝났다, 정답 아닌 질문 교육으로”[2025 서울미래컨퍼런스]

    지식 습득보다 탐구하는 지혜 중요인간지능 잘 쓰는 사람이 AI도 잘 써챗GPT에 생각하는 힘 맡겨선 안 돼 “인공지능(AI) 시대 국가의 생존은 AI의 역량과 AI를 사용하는 인간의 역량 두 가지에 달려 있다.” 최윤식 아시아미래인재연구소장은 5일 ‘인간 중심 인공지능 전환(AX)의 미래 비전’을 주제로 열린 ‘서울인사이트’ 세션에서 AI 시대의 인재 양성에 대해 이 같은 견해를 밝혔다. 최 소장은 특히 ‘AI 시대, 교육의 대전환’에 초점을 맞춘 발표에서 “지식을 배우는 시대는 이제 끝났다”고 단언했다. 과거 교육은 표준화된 지식을 습득해 정답을 찾는 ‘성실한 지식 전문가’ 양성 과정이었다. 하지만 AI가 박사급 추론, 복잡한 문제 해결, 창의성을 갖추고 인간의 인지능력을 대체하는 미래에는 지식보다 지혜에 초점을 맞춰야 한다는 것이다. 최 소장은 “인간은 정답 없는 문제를 탐구하라는 요구를 받게 될 것”이라며 “정답 없는 문제의 상당 부분은 윤리, 사회, 가치 등 본질에 해당하는 문제”라고 말했다. 구체적으로 무엇을 어떻게 가르칠 것인지에 대한 미래상도 제시했다. 학습의 목표는 정답 찾기에서 가치 있는 질문을 설계하는 것으로 바뀌어야 하고, 이에 따라 교수학습법도 AI에게 설명하며 학습하는 인출 기반 학습으로 변화해야 한다는 주장이다. 이어 김재인 경희대 비교문화연구소 교수는 ‘AI 혁명과 노동, 인간의 가치’라는 주제발표를 통해 “AI의 등장 이후 시니어(중장년층 이상) 일자리는 건재한데 주니어(청년) 일자리는 사라지고 있다”고 지적했다. 검증이 필수인 AI의 특성상 사회 초년생보다는 경험 많은 중장년층의 역량을 증강시키는 도구로 더 강력하게 작동하고 있다는 것이다. 이처럼 AI의 등장으로 인간이 퇴보할 것이냐는 문제에 직면한 상황에서 김 교수는 “인간 지능을 잘 쓰던 사람이 AI도 더 잘 쓸 수 있다”고 역설했다. AI의 역할은 ‘개인의 역량을 증강하는 생산성 향상 도구’에 그친다고 정의했다. 예를 들면 마차가 달리던 시대에 인간은 증기기관을 발명했지만, 과거 데이터의 패턴에 의존한 답변만을 내놓는 AI의 ‘머신러닝’은 마력을 효율적으로 쓰는 방안을 알려 줬을 것이라는 의미다. 특히 스스로 생각하는 힘을 유지하기 위해서는 읽고 쓰는 역량을 AI에게 맡기는 것을 지양해야 한다고 말했다. 김 교수는 “챗GPT를 활용해 글을 쓸 때 뇌 인지 활동이 거의 일어나지 않는다는 연구 결과가 있다”며 “AI에게 뇌를 내어 주고 있는 것 아니냐는 생각이 든다”고 우려를 표했다. 아울러 AI 시대에 갖춰야 할 역량으로 ‘취향’을 지목했다. AI가 무엇이든 만들 수 있는 시대에는 ‘만들 수 있을까’가 아니라 ‘만들 가치가 있을까’를 질문해야 한다는 것이다. 이를 위해서는 “중요한 것을 고르는 내적 일관성인 취향이 중요하다”며 “취향은 의도적인 소비와 인내, 자각을 통해 기를 수 있는 기술”이라고 덧붙였다.
  • “기술 진보할수록 인간의 역할 성찰”[2025 서울미래컨퍼런스]

    “기술 진보할수록 인간의 역할 성찰”[2025 서울미래컨퍼런스]

    AI 시대 진짜 위기는 관계의 단절사회적 약자의 참여·보호 보장돼야 “기술의 진보는 인간의 문제를 해결하는 수단이 될 수 있지만 인간 그 자체를 대체할 수는 없습니다.” 이성효 천주교 마산교구장은 5일 ‘인공지능(AI) 시대, 사회적 약자의 존엄과 참여’를 주제로 한 발표에서 “AI가 가져올 변화의 핵심은 기술이 아니라 인간학적 과제”라며 “AI가 인간의 삶을 바꾸는 시대일수록 기술을 다루는 인간의 역할을 성찰해야 한다”고 말했다. 그는 “고삐 풀린 힘들의 주인이 돼 그 힘에 질서를 부여하되 그것은 살아 숨 쉬는 인간을 통해서만 이뤄져야 한다”는 독일 신학자 로마노 과르디니의 말을 인용하며 AI가 새 질서를 만들어 가는 과정에서도 인간이 주체로 서야 한다고 강조했다. 이 교구장은 AI 시대의 ‘사회적 약자’는 단순히 기술의 혜택에서 배제된 사람들에 그치지 않는다고 지적했다. 또 “AI 시대의 진짜 사회적 약자는 기술에 접근할 수 없는 사람들만이 아니라 인간관계에서 배제된 이들”이라며 “관계의 단절이야말로 이 시대의 위기”라고 말했다. AI가 약자를 포용하는 방향으로 발전해야 한다는 점도 역설했다. 이 교구장은 “가장 소외된 이들을 AI 안에 어떻게 포함하는지가 우리의 인간성을 드러내는 잣대”라며 “AI 기술이 사회적 약자의 존엄 윤리를 함께 만드는 방향으로 가야 한다”고 강조했다. 이어 “AI 기술의 진보가 인간을 이롭게 하려면 사회적 약자의 참여와 보호가 보장돼야 한다”고 덧붙였다. 그는 20세기 프랑스의 추기경이었던 앙리 드 뤼박의 말을 인용하며 “인간의 행복은 미래에서 추구될 수 있지만, 인간의 존엄성은 현재에서만 존중받을 수 있다”면서 “AI 시대를 살아가는 우리가 행복보다 존엄을 먼저 선택해야 하는 이유”라고 밝혔다. AI 시대에 걸맞은 교회의 역할에 대해서는 “기술과 철학, 신학의 경계를 넘어 인간 존엄 회복을 위한 대화와 소통의 장이 돼야 한다”며 “투명성·포용성·책임성·공정성·신뢰성·보안 등 6가지 AI 윤리 원칙이 바로 인간 존엄을 지키는 출발점”이라고 말했다.
  • 이성효 천주교 마산교구장 “AI가 인간을 이롭게 하려면 사회적 약자 보호돼야”

    이성효 천주교 마산교구장 “AI가 인간을 이롭게 하려면 사회적 약자 보호돼야”

    “기술의 진보는 인간의 문제를 해결하는 수단이 될 수 있지만, 인간 그 자체를 대체할 수는 없습니다.” 이성효 천주교 마산교구장은 5일 ‘인공지능(AI) 시대, 사회적 약자의 존엄과 참여’를 주제로 한 발표에서 “AI가 가져올 변화의 핵심은 기술이 아니라 인간학적 과제”라며 AI가 인간의 삶을 바꾸는 시대일수록 기술을 다루는 인간의 역할을 성찰해야 한다고 말했다. 그는 “고삐 풀린 힘들의 주인이 되어 그 힘에 질서를 부여하되, 그것은 살아 숨 쉬는 인간을 통해서만 이뤄져야만 한다”는 독일 신학자 로마노 과르디니의 말을 인용하며 AI가 새 질서를 만들어가는 과정에서도 인간이 주체로 서야 한다고 강조했다. 이 교구장은 AI 시대의 ‘사회적 약자’는 단순히 기술의 혜택에서 배제된 사람들에 그치지 않는다고 지적했다. 그는 또한 “AI 시대의 진짜 사회적 약자는 기술에 접근할 수 없는 사람들만이 아니라, 인간관계에서 배제된 이들”이라며 “관계의 단절이야말로 이 시대의 위기”라고 지적했다. AI가 약자를 포용하는 방향으로 발전해야 한다는 점도 역설했다. 이 교구장은 “가장 소외된 이들을 AI 안에 어떻게 포함하는지가 우리의 인간성을 드러내는 잣대”라며 “AI 기술이 사회적 약자의 존엄 윤리를 함께 만드는 방향으로 가야 한다”고 강조했다. 이어 “AI 기술의 진보가 인간을 이롭게 하려면 사회적 약자의 참여와 보호가 보장돼야 한다”고 덧붙였다. 그는 20세기 프랑스의 추기경이었던 앙리 드 뤼박의 말을 인용하며 “인간의 행복은 미래에서 추구될 수 있지만, 인간의 존엄성은 현재에서만 존중받을 수 있다”면서 “AI 시대를 살아가는 우리가 행복보다 존엄을 먼저 선택해야 하는 이유”라고 했다. AI 시대에 걸맞는 교회의 역할에 대해서는 “기술과 철학, 신학의 경계를 넘어 인간 존엄 회복을 위한 대화와 소통의 장이 되어야 한다”며 “투명성·포용성·책임성·공정성·신뢰성·보안 등 6가지 AI 윤리 원칙이 바로 인간 존엄을 지키는 출발점”이라고 말했다.
위로