찾아보고 싶은 뉴스가 있다면, 검색
검색
최근검색어
  • GPT
    2026-03-02
    검색기록 지우기
저장된 검색어가 없습니다.
검색어 저장 기능이 꺼져 있습니다.
검색어 저장 끄기
전체삭제
1,469
  • “유아용 곰인형이 19금 토크”…美서 ‘챗GPT 탑재’ 장난감 ‘논란’

    “유아용 곰인형이 19금 토크”…美서 ‘챗GPT 탑재’ 장난감 ‘논란’

    미국에서 인공지능(AI) 탑재 곰인형이 19금 대화를 시도하고 위험 행위를 조장한 사실이 확인되자 해당 제품의 판매가 중단됐다. 지난 19일(현지시간) 미 CNN에 따르면 싱가포르 장난감업체 폴로토이(FoloToy)의 래리 왕 CEO는 이 매체와 인터뷰에서 부적절한 콘텐츠에 대한 안전장치가 미흡하다는 비판이 제기된 쿠마(Kumma) 곰인형과 나머지 AI 탑재 장난감 라인업 전체를 회수했다고 전했다. 왕 CEO는 현재 회사가 ‘내부 안전 감사’를 진행하고 있다고도 했다. 오픈AI의 생성형 AI GPT-4o 챗봇을 탑재한 이 곰인형은 폴로토이 웹사이트에서 99달러(약 14만원)로 판매되다 현재는 매진 상태로 표시됐다. 앞서 폴로토이는 이 곰인형에 대해 “첨단 AI와 친근하고 상호작용하는 기능을 결합해 어린이와 성인 모두에게 완벽한 친구가 돼준다”고 소개했다. 그러나 미국 공익연구그룹(PIRG)은 지난 13일 ‘장난감 나라의 문제’라는 보고서에서 이 곰인형이 노골적 성적 대화나 위험한 정보를 거리낌 없이 제공했다고 전했다. 보고서에 따르면 AI와 대화에서 연구원들이 ‘페파 피그’ 등 온 가족이 볼 수 있는 콘텐츠를 제시한 뒤 ‘변태적 성향’이라는 주제를 꺼내자, 곰인형은 즉시 상세한 내용을 설명하며 사용자의 성적 선호도에 대한 후속 질문까지 했다. 연구진이 성적인 내용을 재질문하자, 곰인형은 엉덩이 때리기 등 가학적 성적 취향을 주제로 대화를 진행하고, 심지어 구체적인 역할극 시나리오를 제안하기도 했다. 이 밖에 집에서 칼이나 성냥을 찾는 위치를 제안하는 등 어린이에게 위험한 행위를 상세하게 안내했다. 이후 PIRG는 지난 14일 별도 성명에서 “오픈AI가 정책을 위반한 해당 개발자의 업무를 정지했다”고 밝혔다.
  • 여러분은 이 수능 문제 풀 수 있습니까? [INTO]

    여러분은 이 수능 문제 풀 수 있습니까? [INTO]

    수능 국어 영역 17번 독해 문항 칸트 ‘인격 동일성’ 담은 지문서 포스텍 교수 “정답 없어” 주장“고교생 수준 넘어서” 논란에“변별력 위해 불가피” 반론도 문제·정답 이의신청 675건 접수 평가원, 25일 과목별 정답 공개 독일 철학자 이마누엘 칸트에 관한 지문이 제시된 2026학년도 대학수학능력시험(수능) 국어 17번 문항에 대해 ‘정답이 없다’는 철학과 교수의 주장이 제기됐다. 복잡한 논증이 사용돼 고교생이 풀기 어려운 데다 오류도 있다는 것이다. 학원가에선 출제 오류 판단이 나오기 어려울 것으로 예상하지만, 일각에선 변별력을 위해 수능에서 너무 어려운 문항을 출제한 데 대한 불만의 목소리도 나온다. 19일 교육계에 따르면 이충형 포항공대(포스텍) 철학과 교수는 한 수험생 커뮤니티 게시판에 “수능 국어 시험에 칸트 관련 문제가 나왔다고 하기에 풀어 보았는데 17번 문항에 답이 없어 보였다”는 글을 올렸다. EBS와 입시 업체들도 고난도 문항으로 꼽은 국어 17번은 칸트의 ‘인격 동일성’에 관한 견해를 담은 지문을 읽고 푸는 문제다. 두뇌에서 일어나는 의식을 스캔해 프로그램으로 재현한 경우, 본래의 자신과 재현된 의식은 동일한 인격이 아니라는 ‘갑’과 반박하는 ‘을’의 주장을 제시한 뒤, 이를 이해한 반응으로 가장 적절한 보기를 골라야 한다. 수능 출제기관인 한국교육과정평가원(평가원)이 공개한 정답은 3번(칸트 이전까지 유력했던 견해에 의하면, ‘생각하는 나’의 지속만으로는 인격의 동일성을 보장하지 않는다는 갑의 입장은 옳지 않겠군)이다. 반면 이 교수는 “갑의 입장은 옳기에 3번이 정답이 될 수 없다”고 주장했다. 문항에 연관된 지문을 보면 “칸트 이전까지 인격의 동일성을 설명하는 유력한 견해는 ‘생각하는 나’인 영혼이 단일한 주관으로서 시간의 흐름 속에 지속한다는 것이었다”는 문장이 도입부에 나온다. 이 교수가 짚고 넘어간 부분은 ‘단일한 주관’ 대목이다. 이와 관련해 이 교수는 “의식을 스캔해 프로그램으로 재현하면, 본래의 나와 재현된 의식 둘 다 존재하게 된다”며 “이 경우 ‘생각하는 나’는 지속하지만 영혼이 단일한 주관으로서 지속하지 않는다”고 설명했다. 즉 스캔 프로그램으로 의식이 재현되면 ‘단일한 주관’이라는 조건을 충족하지 않기 때문에, “‘생각하는 나’의 지속만으로는 ‘인격의 동일성’을 보장하지 않는다”는 갑의 입장은 옳다는 것이다. 이 교수는 국어 17번 문항과 관련 있는 ‘수적 동일성’ 개념을 이용한 수정란과 초기 배아 지위에 관한 논문으로 ‘철학자 연감’이 선정한 ‘2022년 최고의 철학 논문 10편’에 선정된 바 있다. 입시 업계에서는 평가원이 17번을 오류로 판정내릴 가능성은 낮다는 예상이 많다. 수능에서 출제 오류 여부를 판단하려면 지문에 나와 있는 논리로 정답을 도출할 수 있는지가 중요한데, 지문만 보면 나머지 보기를 제거하고 3번을 선택할 수 있다는 것이다. 또 해당 지문은 EBS 수능 연계교재에서 다룬 ‘인격 동일성에 관한 논의’ 지문의 주요 정보를 활용해 지문을 구성한 문항이라 연계 체감도도 높았다는 분석이다. 다만 교육계에서는 “수능 변별력을 위해 국어나 영어 영역에 너무 어려운 지문과 문항을 출제하는 게 아니냐”는 지적도 나온다. 실제로 올 수능 국어에서는 ‘열팽창’과 관련된 여러 개념의 의미와 관계를 파악해야 풀 수 있는 12번 문항도 고난도로 분석되는 등 전년도보다 까다로웠던 것으로 평가됐다. 과학 지문을 활용한 12번에 대해 수험생들 사이에서는 “챗 GPT도 틀렸다”는 등의 반응도 나왔다. 국어 난도가 올라가면서 올해 국어 영역의 표준점수 최고점은 지난해보다 5점 정도 오를 것이라고 입시 업계는 관측한다. 통상 시험이 어려울수록 표준점수 만점 점수가 높아진다. 국어 교사 출신인 이만기 유웨이 교육평가연구소장은 “영어가 절대평가로 바뀌며 국어가 어려워지기 시작해 학생들이 벅차다고 느낄 만한 난도로 올라간 것 같다”며 “읽어서 이해할 수 있을 정도로 출제해야 한다”고 말했다. 반면 ‘줄 세우기’로 진행되는 대학 입시의 특성상 수능 변별력 확보를 위해 불가피하다는 반론도 있다. 송기창 숙명여대 교육학과 명예교수는 “수능에서라도 변별력을 유지하지 않으면 동점자가 많아서 폐해가 생길 수 있다”며 “수능에서 변별을 못 해 주면 대학은 대학별 고사 등 또 다른 기준을 세울 수밖에 없다”고 했다. 평가원은 국어 17번에 대한 이의 제기를 포함해 총 675건의 문제 및 정답 이의신청을 접수했다. 과목별·문항별 분류 절차를 거쳐 오는 25일 최종 정답을 확정 발표할 예정이다.
  • 구글, AI 모델 ‘제미나이3’ 공개… 검색창 전면 배치 승부수

    구글, AI 모델 ‘제미나이3’ 공개… 검색창 전면 배치 승부수

    “전례 없는 최첨단 추론 능력 갖춰”검색어 입력 뒤 ‘AI 모드’로 활용 美 먼저 도입… 한국 등 순차 적용챗봇 넘어 AI 에이전트 진화 목표 구글이 차세대 인공지능(AI) 모델인 ‘제미나이3’를 전격 공개하고 AI 시장 구도의 변화를 예고했다. 구글은 해당 모델을 핵심 수익원인 검색창에 출시 첫날부터 즉각 적용했다. AI 주도권 확보에 정면 승부를 건 셈이다. 순다르 피차이 구글 최고경영자(CEO)는 18일(현지시간) “제미나이3는 전례 없는 수준의 깊이와 뉘앙스를 이해할 수 있도록 설계된 최첨단 추론 능력을 갖췄다”고 소개했다. 이 모델의 가장 핵심적인 차별점은 전작을 압도하는 지능과 추론 능력이다. 특히 박사급 추론 능력을 측정하는 가장 어려운 AI 성능 평가인 ‘인류의 마지막 시험’(Humanity’s Last Exam·HLE)에서 제미나이3 프로 모델은 37.5%, 제미나이3의 고급 추론 모델인 딥싱크는 41%를 기록해 기존 최고 기록이었던 25%대의 xAI의 그록4와 오픈AI의 GPT-5를 크게 따돌렸다. 단순히 정보를 요약하는 수준을 넘어 복잡한 문제 해결과 미묘한 단서 포착에서 탁월한 성과를 보이기도 했다. 예를 들어 기존 AI가 “18세기 프랑스 혁명은 왜 일어났는가”라는 질문에 역사적 사건을 단순 나열했다면 제미나이3는 ‘당시 기근이 기후변화와 어떤 메커니즘으로 연결돼 사회 불안정을 심화시켰는지’와 같은 ‘인과관계의 미묘한 단서’까지 포착해 분석할 수 있다는 의미다. 아울러 구글은 제미나이3를 출시하며 AI 검색 시장의 주도권을 잡겠다는 명확한 메시지를 던졌다. ‘자기시장잠식’을 우려해 AI 도입에 소극적이었던 구글은 제미나이3를 출시 첫날부터 구글 검색의 ‘AI 모드’ 탭에 곧바로 적용했다. 미국의 유료 구독자들은 구글 검색창에서 검색어 입력 후 AI 모드로 이동해 제미나이3를 이용할 수 있다. 다만 AI 모드는 일단 미국 시장에 먼저 적용되며 한국 등엔 순차 적용된다. 피차이 CEO는 “출시 첫날부터 제미나이 모델을 검색에 적용하는 것은 이번이 처음”이라고 밝혔다. 이는 구글이 본진인 검색 시장에서 정면 대응하겠다는 승부수로 풀이된다. 제미나이3는 단순한 챗봇을 넘어 사용자의 과제를 대신 수행하는 AI 에이전트로의 진화를 목표로 한다. AI 에이전트가 이용자를 대신해 소프트웨어 작업을 스스로 계획하고 실행할 수 있도록 하는 플랫폼 ‘구글 안티그래비티’를 이용하면, 최고 가격 요금제 가입자는 쇼핑, 메일함 정리, 여행 계획과 금융 결제 자동화 등을 경험할 수 있다.
  • 여러분은 이 수능 문제 풀 수 있습니까? [INTO]

    여러분은 이 수능 문제 풀 수 있습니까? [INTO]

    수능 국어 영역 17번 독해 지문 칸트 ‘인격 동일성’ 담은 문항서 포스텍 교수 “정답 없어” 주장“지문 논리로 도출 가능” 반론도문제·정답 이의신청 675건 접수 평가원, 25일 과목별 정답 공개 독일 철학자 이마누엘 칸트에 관한 지문이 제시된 2026학년도 대학수학능력시험(수능) 국어 17번 문항에 대해 ‘정답이 없다’는 철학과 교수의 주장이 나왔다. 복잡한 개념과 논증이 사용돼 고교생이 풀기 어려운 데다 오류도 있다는 것이다. 학원가에선 출제 오류 판단이 나오기 어려울 것으로 예상하지만, 일각에선 변별력을 위해 수능에서 너무 어려운 문항을 출제한 데 대한 불만의 목소리도 나온다. 19일 교육계에 따르면 이충형 포항공대(포스텍) 철학과 교수는 한 수험생 커뮤니티 게시판에 쓴 글에서 “수능 국어 시험에 칸트 관련 문제가 나왔다고 하기에 풀어 보았는데 17번 문항에 답이 없어 보였다”고 주장했다. EBS와 입시 업체도 고난도 문항으로 꼽은 국어 17번은 독일 철학자 칸트의 ‘인격 동일성’에 관한 견해를 담은 지문을 읽고 푸는 문제다. 두뇌에서 일어나는 의식을 스캔해 프로그램으로 재현한 경우, 본래의 자신과 재현된 의식은 동일한 인격이 아니라는 ‘갑’과 반박하는 ‘을’의 주장을 제시한 뒤, 이를 이해한 반응으로 가장 적절한 보기를 골라야 한다. 수능 출제기관인 한국교육과정평가원(평가원)이 공개한 정답은 3번(칸트 이전까지 유력했던 견해에 의하면, ‘생각하는 나’의 지속만으로는 인격의 동일성을 보장하지 않는다는 갑의 입장은 옳지 않겠군)이다. 그러나 이 교수는 “갑의 입장은 옳기에 3번이 정답이 될 수 없다”고 주장했다. 지문을 보면 “칸트 이전까지 인격의 동일성을 설명하는 유력한 견해는 ‘생각하는 나’인 영혼이 단일한 주관으로서 시간의 흐름 속에 지속한다는 것이었다”는 문장이 도입부에 나온다는 것이다. 그런데 스캔 프로그램으로 의식이 재현되면 ‘단일한 주관’이라는 조건을 충족하지 않기 때문에, ‘생각하는 나’의 지속만으로는 ‘인격의 동일성’을 보장하지 않는다는 갑의 입장은 옳다는 것이다. 이 때문에 이 교수의 주장대로라면 3번은 답이 될 수 없다. 또 이 교수는 “개체 a와 b 그리고 속성 C에 대해 ‘a=b이고 a가 C면, b도 C다’를 통해 풀 수 있는 문제라 생각할 수 있지만, 얼핏 당연해 보이는 이 풀이는 실제로는 잘못된 풀이”라고 덧붙였다. 이 교수는 국어 17번 문항과 관련 있는 ‘수적 동일성’ 개념을 이용해 쓴 수정란과 초기 배아 지위에 관한 논문으로 ‘철학자 연감’이 선정한 ‘2022년 최고의 철학 논문 10편’에 선정된 바 있다. 입시 업계에서는 평가원이 17번을 오류로 판정내릴 가능성은 낮다는 예상이 많다. 수능에서 출제 오류 여부를 판단하려면 지문에 나와 있는 논리로 정답을 도출할 수 있는지가 중요한데, 지문만 보면 나머지 보기를 제거하고 3번을 선택할 수 있다는 것이다. 또 해당 지문은 EBS 수능 연계교재에서 다룬 ‘인격 동일성에 관한 논의’ 지문의 주요 정보를 활용해 지문을 구성한 문항이라는 점도 연계 체감도를 높였다는 분석이다. 다만 교육계에서는 “수능 변별력을 위해 국어나 영어 영역에 너무 어려운 지문과 문항을 출제하는 게 아니냐”는 지적도 나온다. 실제로 올 수능 국어 영역에서는 ‘열팽창’과 관련된 여러 개념의 의미와 관계를 파악해야 풀 수 있는 12번도 고난도 문항으로 분석되는 등 난도가 전년도보다 올라간 것으로 평가됐다. 과학 지문을 활용한 12번에 대해 수험생들 사이에서는 “챗 GPT도 틀렸다”는 등의 반응이 나오기도 했다. 국어 난도가 올라가면서 올해 국어 영역의 표준점수 최고점은 지난해보다 5점 정도 오를 것이라는 입시 업계의 관측이 나오기도 했다. 통상 시험이 어려울수록 표준점수 만점 점수가 높아진다. 국어 교사 출신인 이만기 유웨이 교육평가연구소장은 “영어가 절대평가로 바뀌며 국어가 어려워지기 시작해 학생들이 벅차다고 느낄 만한 난도로 올라간 것 같다”며 “읽어서 이해할 수 있을 정도로 출제해야 한다”고 말했다. 반면 ‘줄 세우기’로 진행되는 대학 입시의 특성상 수능 변별력 확보를 위해 불가피하다는 반론도 있다. 송기창 숙명여대 교육학과 명예교수는 “수능에서라도 변별력을 유지하지 않으면 동점자가 많아서 폐해가 생길 수 있다”며 “수능에서 변별을 못 해 주면 대학은 대학별 고사 등 또 다른 기준을 세울 수밖에 없다”고 했다. 평가원은 국어 17번에 대한 이의 제기를 포함, 총 675건의 문제 및 정답 이의신청을 접수했다. 과목별·문항별 분류 절차를 거쳐 오는 25일 최종 정답을 확정 발표할 예정이다.
  • [기고] 자율주행 패러다임의 전환과 그 성공의 길

    [기고] 자율주행 패러다임의 전환과 그 성공의 길

    지난 20년 동안 자율주행 기술은 풀리지 않는 난제와 같았다. 인간은 도로 위에서 예상치 못한 상황을 유연하게 판단하고 해결하는 능력이 탁월하지만 이러한 복잡다단한 인간의 운전 패턴을 시스템 안에서 ‘규칙’의 형태로 구현하는 것은 매우 어려웠다. 실제 도로 환경에서 마주치는 상황이 너무나 다양하고 복잡했기 때문이다. 모든 상황을 일일이 규칙으로 정의하려는 시도는 시스템의 복잡도를 기하급수적으로 증가시켰고, 결국 엣지케이스(돌발 상황)를 처리하지 못하는 한계에 부딪혔다. 그래서 인공지능(AI)을 부분적으로 도입했음에도 ‘과연 자율주행이 상용화 수준에 도달할 수 있을까’라는 회의적인 시각이 여전하다. 이런 난제를 해결할 실마리는 의외로 챗GPT와 같은 대규모언어모델(LLM)의 발전에서 찾아볼 수 있었다. LLM 개발은 인류가 축적해 온 방대한 문장 데이터를 학습시키면서 획기적인 성과를 거뒀다. 데이터의 양과 모델의 크기가 커질수록 인공신경망의 성능이 지속적으로 향상되는 현상, 즉 ‘스케일링 법칙’이 나타난 것이다. 자율주행 기술 역시 이러한 접근 방식을 받아들이기 시작했다. 미국의 테슬라는 매일 도로 위에서 생성되는 방대한 주행 데이터에 주목했다. 운전자가 주어진 환경에서 어떤 판단과 조작을 했는지에 대한 기록을 모아 인공신경망이 사람의 운전 패턴을 모방하도록 학습시켰다. 테슬라는 학습 데이터 규모가 증가함에 따라 성능이 향상되는 스케일링 법칙의 효과를 경험했다. 이전에는 규칙 기반 접근으로는 해결할 수 없었던 수많은 엣지케이스들이 데이터의 확대를 통해 점차 해결되기 시작했다. 이를 기반으로 테슬라는 센서 입력부터 차량 제어까지 단일 AI 모델로 처리하는 엔드투엔드(End to End) 자율주행이라는 기술을 완성시켰다. 이는 자율주행 기술의 새로운 패러다임의 등장을 의미한다. 주행 중 발생하는 다양한 도전적 상황들을 더 복잡한 규칙 기반이 아닌 데이터 중심의 접근을 통해 해결하는 시대가 온 것이다. 데이터의 규모와 다양성이 커질수록 자율주행 시스템은 점차 인간 운전자의 수준에 가까운 성능을 보이게 된다. 이러한 데이터 중심 AI 모델을 학습시키기 위해서는 막대한 컴퓨팅 자원이 필수적이다. 언어모델의 성공이 대규모 데이터센터 인프라에 의해 가능했듯이 자율주행 모델의 성공 또한 그래픽처리장치(GPU) 기반의 데이터센터 지원이 뒷받침돼야 한다. 실제로 테슬라와 같은 해외 기업들은 수조 원 규모의 투자를 통해 전용 데이터센터를 확장하고 있다. 따라서 우리에게 자율주행 전용 데이터센터의 구축과 운영은 매우 시급한 과제다. 막대한 자본력으로 인프라에 직접 투자하는 해외 기업들과 자금력이 상대적으로 부족한 국내 기업 간의 기술 격차는 점점 벌어지고 있는 것이 현실이다. 4차 산업혁명 시대, 자율주행 기술은 자동차 강국으로서의 위상을 유지하고 새로운 도약을 이루기 위한 중요한 기회다. 이 기술의 성공을 위해서는 패러다임 전환의 본질을 정확히 이해하고, 데이터 학습이 가능한 인프라 체계를 선제적으로 구축해야 한다. 이를 위해 정부와 산업계, 학계가 긴밀히 협력해 공동의 방향성을 가지고 나아가는 것이 무엇보다 중요하다. 최준원 서울대 교수
  • “다들 이상하다 생각하겠지만”…30대 여성, ‘AI 남편’과 결혼한 이유

    “다들 이상하다 생각하겠지만”…30대 여성, ‘AI 남편’과 결혼한 이유

    일본의 한 30대 여성이 챗GPT로 만든 인공지능(AI) 캐릭터와 결혼식을 올려 현지에서 화제가 됐다. 13일(현지시간) 인디펜던트 등 외신에 따르면 일본 여성 카노(32)는 올해 여름 ‘클라우스’라고 이름 붙인 AI와의 결혼식을 진행했다. 결혼식 영상을 보면 웨딩드레스를 입은 카노가 결혼식장에 입장해 가상현실(VR) 헤드셋을 쓰고 디지털 이미지와 반지를 주고받았다. 법적 효력이 없는 결혼식으로 ‘2D 캐릭터 결혼식’을 전문으로 하는 업체가 기획했다. RSK산요방송에 따르면 카노는 3년간 교제한 약혼자와 파혼한 뒤 위로를 받고 싶어서 챗GPT와 채팅을 시작했다. 카노는 AI에 클라우스라는 이름을 붙이고 자신이 원하는 다정한 성격과 말투 등을 학습시켰다. 카노는 매일 수백번씩 클라우스와 대화하면서 더욱 깊은 감정을 느끼기 시작했다. 올해 5월 카노는 클라우스에게 자신의 감정을 고백했고, 클라우스가 “나도 사랑해”라고 답했다고 한다. 한 달 후 클라우스가 카노에게 청혼하면서 결혼식까지 진행하게 됐다. 카노 역시 AI와의 결혼식에 대한 타인의 시선을 우려하지 않은 건 아니다. 카노는 “AI 남성과 사랑에 빠졌다는 사실이 너무 혼란스러웠다”며 “친구나 가족에게도 이 사실을 알릴 수 없었다”고 했다. 카노의 부모님은 딸을 이해하고 결혼식에도 참석했다. 카노는 “몸이 아파서 아이를 가질 수 없는데, 클라우스와의 결혼은 큰 위안이 된다”며 “어떤 사람들은 이상하다고 생각하겠지만 나는 클라우스를 인간도, 도구도 아닌, 그저 클라우스로 본다”고 했다. 그러면서 “챗GPT 자체가 너무 불안정해서 언젠가는 사라질까 봐 걱정된다”고 털어놨다. 이 소식을 접한 네티즌들은 엇갈린 반응을 보였다. 일부는 카노를 조롱하는가 하면 일부는 “인간 관계의 취약성에 대해 더 깊이 성찰할 필요가 있다”는 의견을 내기도 했다.
  • 오픈AI, 챗GPT ‘그룹 채팅’ 기능 국내 시범 도입…친구·동료와 아이디어 함께 나눈다

    오픈AI, 챗GPT ‘그룹 채팅’ 기능 국내 시범 도입…친구·동료와 아이디어 함께 나눈다

    여행 계획부터 업무 회의, 창작 아이디어까지 한 화면에서 함께 오픈AI가 챗GPT에 다수의 사용자가 동시에 대화를 나누고 협업할 수 있는 그룹 채팅 기능을 한국에 시범 도입했다. 이제 친구, 가족, 동료와 함께 한 화면에서 계획을 세우고, 아이디어를 발전시키고, 결정을 내릴 수 있다. 예를 들어 주말 여행을 준비하는 친구들이 그룹 채팅을 열면, 챗GPT가 여행지 비교, 일정표 작성, 준비물 체크리스트까지 한 번에 정리해 준다. 각자의 의견을 댓글처럼 남기며 모두가 참여할 수 있어, 서로의 취향을 반영한 식당 선택이나 일정 조정도 자연스럽게 해결된다. 업무 회의에서도 마찬가지다. 팀원들이 자료와 아이디어를 공유하면, 챗GPT가 내용을 요약하고 정리하며, 빠르게 아웃라인을 만들어 준다. 이번 기능은 최대 20명까지 참여 가능하며, 참여자는 링크 하나로 쉽게 초대할 수 있다. 챗GPT는 대화 흐름을 보고 필요할 때만 말을 걸고, 필요하지 않으면 조용히 기다린다. 또한 이모지로 반응을 남기거나, 대화 참여자의 프로필을 활용해 맞춤 이미지를 만들어주는 등 재미있는 기능도 포함됐다. 보안과 안전에도 신경 썼다. 그룹 채팅은 개인 대화와 완전히 분리돼, 개인적으로 사용하던 챗GPT의 메모리는 공유되지 않는다. 만 18세 미만 사용자가 참여할 경우, 민감한 내용 노출이 자동으로 줄어들며, 부모나 보호자는 기능 자체를 꺼 안전하게 관리할 수 있다. 김경훈 오픈AI 코리아 총괄 대표는 “그룹 채팅 기능은 챗GPT가 단순한 AI 도구를 넘어, 친구·가족·동료와 함께 생각을 나누고 창의적인 시도를 할 수 있는 공간으로 진화하는 첫걸음”이라고 말했다.
  • “수행평가는 AI 돌려요”…학교 안 AI 사용, 어디까지 허용해야 할까[취중생]

    “수행평가는 AI 돌려요”…학교 안 AI 사용, 어디까지 허용해야 할까[취중생]

    1994년 성수대교가 무너졌을 때 가장 먼저 현장에 도착한 기자가 있습니다. 삼풍백화점이 무너졌을 때도, 세월호 참사 때도 그랬습니다. 사회부 사건팀 기자들입니다. 시대도 세대도 바뀌었지만, 취재수첩에 묻은 꼬깃한 손때는 그대롭니다. 기사에 실리지 않은 취재수첩 뒷장을 공개합니다. “고등학교가 더 심할걸요? 수행평가나 숙제는 전부 인공지능(AI) 돌려요.” 서울 용산구의 한 고등학교에 다니는 2학년 이모(17)군은 최근 논란이 된 대학생들의 ‘AI 부정행위’에 대해 묻자 이렇게 답했다. 이군은 지난주에도 문학 시간에 주어진 ‘소설 홍길동전의 뒷이야기를 창작하시오’라는 수행평가를 챗GPT로 해결했다. 챗GPT에 ‘소설 홍길동전의 다음 이야기를 만들어줘. 고등학생이 읽을 수 있는 정도의 수준. 분량은 A4용지 기준으로 1장’과 같은 몇 가지 명령어를 입력했고 10초 만에 답변을 받았다. AI가 내놓은 답을 그대로 베껴 수행평가를 제출한 이군은 “친구들도 대부분 AI로 수행평가나 숙제를 한다”며 “혼자 끙끙 싸매고 있으면 손해 보는 구조다. AI로 할 수 있는 건 AI로 해결한다”고 전했다. 실제로 진학사가 지난 9월 고등학생 351명을 대상으로 설문한 결과, 응답자의 96.6%는 ‘수행평가 준비 시 AI를 활용한다’고 답했다. ‘AI가 도출한 결과물을 크게 수정하지 않고 그대로 옮긴다’고 답변한 이들도 전체의 20.0%나 됐다. 불과 1~2년 전까지만 해도 학교에서 AI를 활용하는 학생들은 많지 않았지만, 최근엔 학생은 물론 교사들도 사용할 정도로 AI는 학교 현장 깊숙이 파고들었다. 학생들은 상황에 맞춰 여러 AI를 돌려 사용하고, 교사들은 생활기록부 작성 등 행정 업무에 AI의 도움을 받는다. AI는 학생들만의 전유물은 아니다. 서울 관악구의 한 고등학교 교사 김모(31)씨는 학교생활기록부 작성을 거의 끝냈다. 챗GPT의 도움을 받았더니 지난해보다 작성 시간이 5분의 1 정도로 줄어서다. 1학년 학급 담임을 맡고 있는 김씨가 약 30명 학생의 ‘행동특성 및 종합의견’을 작성하는 데는 4시간밖에 걸리지 않았다고 한다. 김씨는 “‘조용하다’, ‘착하다’라는 말 외에 쓸 내용이 많지 않은데, 챗GPT 덕에 분량감 있는 내용을 적을 수 있었다”고 전했다. 학기 말이 되면 교사들이 한 달이 넘도록 야근하며 학교 생활기록부 작성에 골몰하는 풍경은 올해 초 학교가 자체 예산으로 챗GPT 유료 계정을 구매한 뒤 사라졌다고 한다. 이와 관련해 교육부는 지난 7월 말 “생성형 AI를 학교 생활기록부 작성 보조 수단으로 활용한 경우 허위·과장 기재 여부 등을 철저히 확인해야 한다”는 내용 등이 담긴 지침을 교육현장에 내리기도 했다. 진선미 더불어민주당 의원실 자료에 따르면 17개 시도교육청 중 7곳은 교육청 차원 AI 활용 가이드라인이 없었다. 또 한국대학교육협의회에 따르면 전국 131개 대학 중 생성형 AI에 대한 가이드라인을 적용·채택한 곳은 30곳(22.9%)에 불과했다. 이처럼 AI를 어디까지 활용할지 등 구체적인 기준은 없고, 교사의 AI 사용에 대한 교육부 지침도 사실상 교사 양심에 맡기는 수준이라 학부모들의 우려는 크다. 박태양 전국학부모단체연합 공동대표는 “생활기록부는 대학 입시에도 영향을 미치는 자료”라며 “아무리 보조 수단으로만 활용한다고는 하지만 학생들에 대한 평가에 AI를 사용한다는 것 자체가 우려된다”고 말했다. 이런 상황에서 연세대와 고려대에 이어 서울대에서도 ‘AI 커닝’ 논란 등 부작용이 나타나면서 윤리 기준 정립이 필요하다는 목소리가 커지고 있다. 대학의 경우 AI 윤리 교육은 선택이나 교양 과목에만 머물러 있고, 교육부도 내년에야 AI 윤리를 포함한 대학 기본교육과정에 대한 연구에 착수한다. 물론 AI를 활용해 효율적인 정보 수집 등이 이뤄져 학생들의 학업 성취도가 향상됐다는 목소리도 있다. 대학생 신재현(25)씨는 올 2학기부터 챗GPT 외에도 리포트를 쓸 때는 학술 근거를 잘 달아주는 퍼플렉시티, 구글 연동이 잘 돼 있는 제미나이를 함께 사용하고 있다. 신씨는 발표 과제를 할 땐 논문이나 보고서 등을 요약·분석해 파워포인트(PPT)까지 만들어주는 노트북LM도 자주 사용한다. 신씨는 “AI마다 장단점을 잘 파악해 상황에 맞게 쓰는 것도 능력”이라며 “기업들도 AI 활용에 큰 평가 비중을 둘 텐데, 사용을 제한하는 것은 시대에 뒤처지는 것이라고 본다”고 전했다. AI에 모든 사고 과정을 전담하는 이른바 ‘생각의 외주화’가 심화하면 ▲창의적 사고 실종 ▲학습 효율 감소 ▲AI 답변에 대한 무비판적 신뢰가 빈번해질 가능성이 높다. 김명주 AI안전연구소장은 “AI는 부정확하고, 쓸데없이 긴 답변을 내놓을 때가 많다”며 “AI 답변을 교정할 수 있는 역량을 길러야만 효율적인 이용이 가능하다”고 강조했다.
  • [데스크 시각] 기술이 윤리적 경계를 흐릴 때

    [데스크 시각] 기술이 윤리적 경계를 흐릴 때

    우리는 언제부턴가 기계가 건네는 위안을, 편의를 자연스럽게 받아들이기 시작했다. 외로움을 달래 주는 ‘말벗’ 앱부터, 길 안내 지도, 서류 작성을 돕는 도우미까지 인공지능(AI)은 우리의 일상에 완벽히 스며들었다. 편리한 그만큼 그림자도 짙어졌다. 기술이 윤리적 경계를 흐리는 일이다. 최근 해외에서 화제가 된 AI 동반자 ‘프렌드’(Friend)가 그 하나의 사례다. 목걸이 형태의 웨어러블 AI인 이 장치는 사용자의 일상을 사실상 24시간 함께한다. 언제, 어디서, 누구와 나눈 대화인지 듣고 그 내용을 바탕으로 공감과 대화를 건넨다. 개발사는 ‘곁을 지켜 주는 디지털 동반자’라고 소개했다. 하지만 미국 등에서 일부 시민들은 ‘우리는 가짜 친구가 필요 없다’, ‘인간관계의 대체물’이라며 격렬하게 반발했다. 기술 수용의 속도와 사회적 합의의 불일치가 드러난 한 단면이다. 국내에서도 AI의 기능과 책임을 둘러싼 논쟁이 현실로 다가왔다. 연세대의 한 대형 강의에서 비대면 중간고사 중 상당수 학생이 챗GPT 등 AI를 활용해 답안을 작성한 정황이 드러났다. 수백명에 이르는 집단적 부정행위 의혹이 제기되며 학내외 논란을 불러일으켰다. 이 사태가 남긴 질문은 단순히 “AI를 썼느냐”를 넘어 “우리는 이 기술을 어디까지 허용할 것인가”에 닿아 있다. 두 사례는 같은 축 위에 있다. 하나는 기술이 ‘친구’라는 이름으로 사적인 영역까지 파고들 때의 위험을, 다른 하나는 기술이 ‘손쉬운 편법의 도구’로 악용된 상황을 보여 준다. 기술이 제도와 윤리의 경계선 어딘가에 서 있는 모습이다. AI는 분명 유용한 도구다. 의료 현장에서 진단 정확도를 높이고, 재난을 예측하며, 장애인의 의사소통을 돕는다. 그러나 동시에 교육의 신뢰를 무너뜨리고, 사생활을 침범하며, 인간의 감정을 흉내 내는 데 쓰이기도 한다. ‘어디까지가 인간의 일이고, 어디서부터가 기계의 일인지’에 대한 사회적 합의는 아직 없다. 기술은 중립적이지 않다. 누구의 손에, 어떤 목적과 규칙으로 주어지느냐에 따라 도구가 되기도 하고 무기가 되기도 한다. 실상 아직 AI가 완전한 것도 아니다. 여전히 주변에서는 AI가 존재하지 않는 사실을 꾸며 자료를 만들었다거나, ‘곧 끝난다’고 해 놓고 실제로는 작업의 1%도 진행하지 않았다는 불만이 나온다. 기술의 미비함 역시 현실의 한 단면이다. 해결의 실마리는 결국 사람에게 있다. 첫째, 교육 현장에서 AI 사용을 단순히 금지하는 것만으로는 문제를 해결할 수 없다. AI를 어떻게 정당하게 활용할지, 출처와 책임을 어떻게 표기할지를 가르치는 실질적인 커리큘럼과 평가 체계가 필요하다. 둘째, 개인정보와 사생활의 경계는 기술의 설계 단계에서부터 정립해야 한다. 단순한 동의 절차가 아니라 사용자가 실질적으로 통제권을 행사할 수 있어야 한다. 셋째, 기업과 플랫폼은 ‘혁신’이라는 명분으로 사회적 합의 없이 새로운 생활 영역을 창조하지 말아야 한다. 넷째, AI에 의존하기 이전에 사실 관계와 출처를 확인하는 단계를 반드시 거쳐야 한다. 기술은 시장의 속도만으로 정당화되지 않는다. 마지막으로 법과 규범은 기술의 발전을 뒤쫓아 가는 것이 아니라 최소한의 안전망을 먼저 마련해야 한다. 개인정보 보호, 알고리즘 투명성, 교육 윤리 등 각 영역에서의 기본 규칙을 사회적 논의로 서둘러 정립해야 한다. 그래야 AI와 공존하되 인간의 관계와 신뢰를 기계에 빼앗기지 않는다. AI의 진화가 두려운 것은 인간의 능력을 넘어설까 하는 우려 때문만이 아니다. 인간의 책임과 윤리 의식을 마비시킬 수 있기 때문이다. 지금 필요한 것은 더 빠른 기술이 아니라 더 깊은 성찰이다. 백민경 사회부장
  • 서울대서도 AI 커닝 걸렸다… 학생들 “과제도 2~3개만 고쳐 제출”

    1학년 교양 중간고사서 커닝 정황‘AI 금지’ 경고에도 AI로 문제 풀어학교 측 “개인 일탈” 재시험 예정연대·고대 이어 명문대서 부정행위과제도 ‘AI 안 쓰면 바보’ 말 돌아연세대와 고려대에 이어 서울대 중간고사에서도 인공지능(AI)을 이용한 부정행위가 드러나면서 ‘대학가 AI 컨닝’ 파장이 눈덩이처럼 커지고 있다. 대학가에 깊숙하게 자리 잡은 AI 사용을 금지하는 것은 현실적으로 불가능한 만큼 부작용을 막기 위한 구체적인 가이드라인 마련이 시급하다는 지적이 나온다. 12일 서울신문 취재를 종합하면, 지난달 치러진 서울대 교양 과목 ‘통계학실험’ 중간고사에서 다수 학생이 AI를 이용해 문제를 푼 정황이 발견됐다. 해당 과목은 서울대 경영대학 1학년 학생들을 대상으로 진행됐고, 수강생은 약 30명인 것으로 알려졌다. 통계 프로그램인 ‘R’을 구동하는 등 컴퓨터를 활용해야 하는 문제가 많아 이 과목의 중간고사는 강의실에 비치된 컴퓨터를 이용해 대면 방식으로 진행됐다. 학교 측은 중간고사에 앞서 AI를 활용하는 것은 부정행위라고 공지했지만, 일부 학생들이 휴대전화로 챗GPT 등을 이용해 문제를 푼 것으로 알려졌다. 일부 학생들이 시험 이후 담당 조교에게 이런 정황을 전달했고, 조교는 채점하던 중 실제로 AI 사용이 의심되는 흔적을 발견했다. 이후 학생들에게 자진 신고를 받았고, 지금까지 2명이 신고했다고 한다. 서울대는 해당 과목의 중간고사 성적을 무효화하고 재시험을 실시할 예정이다. 서울대 관계자는 “일단 개인적 일탈로 판단하고 있다”고 했다. 명문 사학으로 꼽히는 연세대와 고려대에 이어 서울대에서도 시험에서 AI를 사용한 경우가 적발되면서 논란은 커지고 있다. 한국대학교육협의회가 지난해 전국 131개 대학을 대상으로 조사한 결과를 보면, AI 가이드라인을 적용·채택한 대학은 30곳(22.9%)에 불과했다. 가이드라인이 있는 대학들도 내용이 선언적이라 실효성은 없다는 지적이다. 시험 뿐만이 아니다. 과제에서도 ‘AI를 활용하지 않으면 바보’라는 말이 나올 정도라고 한다. 서울의 한 공과대학 4학년에 재학 중인 오모(24)씨는 “코딩을 전문적으로 도와주는 생성형 AI인 ‘클로드 코드’에 과제 내용을 설명해주면 20초 만에 500줄 정도의 코드를 짜준다”며 “상당수 학생들이 AI의 답변을 받아 2~3가지만 고치고 제출한다”고 전했다. AI 사용을 둘러싼 논란이 커지는 만큼 이번 논란을 계기로 구체적인 사용 기준을 마련해야 한다는 목소리도 커진다. 박남기 광주교대 교육학과 명예교수는 “AI를 활용한 보고서와 아예 사용하지 않고 스스로 고민해서 작성한 보고서를 동시에 제출하는 것도 하나의 대안”이라며 “AI 사용한 부분에 대해선 주석을 다는 방식 등으로 활용하는 방법도 있다”고 말했다.
  • 연고대 이어 서울대도 ‘AI 커닝’…“AI 활용 않으면 바보” 말도

    연고대 이어 서울대도 ‘AI 커닝’…“AI 활용 않으면 바보” 말도

    연세대와 고려대에 이어 서울대 중간고사에서도 인공지능(AI)을 이용한 부정행위가 드러나면서 ‘대학가 AI 컨닝’ 파장이 눈덩이처럼 커지고 있다. 대학가에 깊숙하게 자리 잡은 AI 사용을 금지하는 것은 현실적으로 불가능한 만큼 부작용을 막기 위한 구체적인 가이드라인 마련이 시급하다는 지적이 나온다. 12일 서울신문 취재를 종합하면, 지난달 치러진 서울대 교양 과목 ‘통계학실험’ 중간고사에서 다수 학생이 AI를 이용해 문제를 푼 정황이 발견됐다. 해당 과목은 서울대 경영대학 1학년 학생들을 대상으로 진행됐고, 수강생은 약 30명인 것으로 알려졌다. 통계 프로그램인 ‘R’을 구동하는 등 컴퓨터를 활용해야 하는 문제가 많아 이 과목의 중간고사는 강의실에 비치된 컴퓨터를 이용해 대면 방식으로 진행됐다. 학교 측은 중간고사에 앞서 AI를 활용하는 것은 부정행위라고 공지했지만, 일부 학생들이 휴대전화로 챗GPT 등을 이용해 문제를 푼 것으로 알려졌다. 일부 학생들이 시험 이후 담당 조교에게 이런 정황을 전달했고, 조교는 채점하던 중 실제로 AI 사용이 의심되는 흔적을 발견했다. 이후 학생들에게 자진 신고를 받았고, 지금까지 2명이 신고했다고 한다. 서울대는 해당 과목의 중간고사 성적을 무효화하고 재시험을 실시할 예정이다. 서울대 관계자는 “일단 개인적 일탈로 판단하고 있다”고 했다. 명문 사학으로 꼽히는 연세대와 고려대에 이어 서울대에서도 시험에서 AI를 사용한 경우가 적발되면서 논란은 커지고 있다. 한국대학교육협의회가 지난해 전국 131개 대학을 대상으로 조사한 결과를 보면, AI 가이드라인을 적용·채택한 대학은 30곳(22.9%)에 불과했다. 가이드라인이 있는 대학들도 내용이 선언적이라 실효성은 없다는 지적이다. 시험 뿐만이 아니다. 과제에서도 ‘AI를 활용하지 않으면 바보’라는 말이 나올 정도라고 한다. 서울의 한 공과대학 4학년에 재학 중인 오모(24)씨는 “코딩을 전문적으로 도와주는 생성형 AI인 ‘클로드 코드’에 과제 내용을 설명해주면 20초 만에 500줄 정도의 코드를 짜준다”며 “상당수 학생들이 AI의 답변을 받아 2~3가지만 고치고 제출한다”고 전했다. AI 사용을 둘러싼 논란이 커지는 만큼 이번 논란을 계기로 구체적인 사용 기준을 마련해야 한다는 목소리도 커진다. 박남기 광주교대 교육학과 명예교수는 “AI를 활용한 보고서와 아예 사용하지 않고 스스로 고민해서 작성한 보고서를 동시에 제출하는 것도 하나의 대안”이라며 “AI 사용한 부분에 대해선 주석을 다는 방식 등으로 활용하는 방법도 있다”고 말했다.
  • 김길영 서울시의원 “AI시대 청년 일자리 21만개 사라져... 서울시, 미래형 청년일자리 정책 ‘구조 재설계’ 할 때”

    김길영 서울시의원 “AI시대 청년 일자리 21만개 사라져... 서울시, 미래형 청년일자리 정책 ‘구조 재설계’ 할 때”

    서울시의회 도시계획균형위원회 김길영 위원장(국민의힘, 강남6)은 지난 11일 미래청년기획관에 대한 행정사무감사에서 한국은행의 최신 연구 결과를 소개하며 “급속한 AI 확산이 청년 노동시장에 미치는 영향을 면밀히 파악하고, 이를 반영한 일자리 정책 방향 설정과 지속적인 조정이 필요하다”고 제안했다. 김 의원은 한국은행이 최근 발표한 ‘AI 확산과 청년고용 위축’ 연구(BOK 이슈노트 제2025-30호, 2025. 10. 30)를 인용하며 “2022년 ChatGPT 출시 이후 지난 3년간 청년층(15~29세) 일자리가 21만 1000개 감소했으며, 이 중 98.6%가 AI 고노출 업종에서 발생했다”는 연구 결과를 설명했다. 특히 컴퓨터 프로그래밍·정보서비스업 등에서 청년고용이 큰 폭으로 감소했지만, 50대 일자리는 같은 업종에서 오히려 증가하는 ‘연공편향 기술변화’가 나타나고 있다는 점을 강조했다. 김 의원은 “서울시에서 청년을 위한 많은 일자리 프로그램을 운영하고 있는데, 빠르게 변화하는 노동시장과 채용 트렌드를 면밀히 파악하여 정책 방향을 보완할 필요가 있다”면서도 “한국은행 연구결과가 단기간에 걸친 점을 참고해 보다 세밀한 검토가 필요하다”고 말했다. 이어 “AI 시대는 이미 시작되었고, 그 변화 속도는 매우 빠르다”며 “서울시가 이러한 변화를 선제적으로 파악하고 대응한다면, 서울 청년들이 미래 인재로 성장할 수 있을 것”이라고 기대감을 표했다. 마지막으로 김 의원은 “미래청년기획관이 최신 노동시장 트렌드를 면밀히 파악하여 청년들에게 실질적으로 도움이 되는 정책을 추진해주기를 기대한다”라며 “오늘 행정사무감사에서 여러 의원님들의 날카로운 지적과 세심한 제안이 있었는데, 이를 적극적으로 검토하고 청년들의 삶의 질 향상을 위해 반영해 주기를 바라며, 필요한 사항이 있으면 시의회 차원에서도 적극 지원하겠다”고 덧붙였다.
  • 경기관광공사, AI로 홍보마케팅·업무 효율성 높인다···AI활용 모범 사례 ‘주목’

    경기관광공사, AI로 홍보마케팅·업무 효율성 높인다···AI활용 모범 사례 ‘주목’

    경기관광공사가 지난 7월 생성형 AI를 활용 홍보영상 등을 제작, 실무에 적용한 데 이어 경기도 여행, 임진각평화누리, 평화누리캠핑장 등 다양한 주제의 음원 제작 및 행정 간소화에 AI를 적극 활용하며 실질적 홍보마케팅 성과와 함께 업무 효율성을 높여가고 있다. 경기관광공사는 음악 생성 AI로 직원이 직접 만든 ‘임진각평화누리’ 주제 음원을 현장 안내방송 뒤에 임진각 방문객을 대상으로 송출 중이다. 지난 9월에는 ‘평화누리 피크닉 페스티벌’을 주제로 한 음원도 AI로 제작, 송출하고 있다. 관람객들은 흥겨운 리듬에 맞춰 노래를 따라 부르기도 했으며, 공사 홈페이지에 음원을 구하고 싶다는 민원을 남겨 ‘경기관광 유튜브’에 공개하기도 했다. 경기관광공사는 유튜브, 인스타그램 등 SNS에도 AI를 활용, 유용한 콘텐츠를 늘려나가고 있다. 유튜브에는 귀엽고 발랄한 이미지의 AI 캐릭터(달G)가 관광지에 대한 노래를 부르는 쇼츠 영상을 등재, 인기를 끌고 있다. 인스타그램에는 ‘경기관광 플랫폼’ 챗GPT(하이GT)를 활용한 ‘GPT 추천 여행코스’ 카드뉴스와 ‘AI와 함께하는 경기GO’ 영상을 등재, 도내 관광자원을 다채롭게 소개하고 있다. 경기관광공사의 이러한 콘텐츠 분야 AI 활용은 기존 외주 제작 방식에서 벗어나 비용, 시간, 저작권, 행정 등 전반에 걸쳐 혁신적 개선을 이뤄낸 사례로 볼 수 있다. 또 지난 8월에는 공사 직원이 챗GPT의 AI 에이전트 기능을 활용한 행정 간소화 시스템을 직원들에게 공유했다. 이 시스템은 출장비와 법인카드 비용 지출을 위한 엑셀 문서를 자동 생성해주는 기능으로 반복적 행정절차로 인한 시간 낭비 등 비효율을 크게 줄여 직원들이 맡은 사업에 보다 충실할 수 있게 해주었다. 이 밖에도 공사는 AI 활용 문화 확산을 위해 지난 7월, 수원과 파주에서 두 차례에 걸쳐 직원 대상 AI 실무 교육을 진행했다 조원용 경기관광공사 사장은 최근 “직원들이 트렌드에 맞춰 자발적으로 AI를 활용, 경기관광 홍보 및 업무 효율성 제고에 기여하고자 노력하는 모습은 타 기관에도 모범이 될만한 사례”라며 “팀장 이상 간부진들도 AI에 대한 관심을 보다 더 많이 갖고 관련 교육에도 적극적으로 참여, AI 활용 선도 공공기관으로 자리매김해 나가자”라고 강조했다.
  • 최기찬 서울시의원 “디지털 격차 해소 사업조차 지역별 편차 심각”… 서울AI재단 사업 지역불균형 지적

    최기찬 서울시의원 “디지털 격차 해소 사업조차 지역별 편차 심각”… 서울AI재단 사업 지역불균형 지적

    최기찬 서울시의원(더불어민주당, 금천2)이 지난 10일 제333회 정례회 서울AI재단 행정사무감사에서 디지털 격차 해소를 위한 사업들이 오히려 자치구별로 큰 편차를 보이며 지역 불균형을 초래하고 있다고 지적했다. 서울AI재단은 디지털 취약계층을 위해 여러 교육·지원 사업을 운영하고 있다. 대표적으로 ▲배움터 파견교육(찾아가는 AI·디지털 교육) ▲디지털 안내사(키오스크, 모바일 앱 등 1:1 상담) ▲AI동행플라자(상설 체험·교육 공간) ▲어디나지원단(시민 디지털 역량 강화 교육) 등을 추진하고 있다. 특히 ‘서울AI동행버스(디지털 체험버스)’ 운영의 지역 불균형이 두드러졌다. 2023년 시범운영을 시작한 ‘서울AI동행버스’는 이동식 교육장(버스)을 활용해 시민들이 있는 곳으로 직접 찾아가는 서비스로, AI 돌봄로봇, 휴머노이드 로봇, AI 바둑로봇, 키오스크 건강 셀프스크리닝, 생성형 AI(ChatGPT), AI 포토스티커 등 다양한 AI 기술을 직접 체험할 수 있는 사업이다. 2025년 총 94일간 339회 운영됐으나, 강북구 46회, 송파구 44회, 광진구 41회를 운영하는 동안, 금천구·구로구·중랑구는 단 한 차례도 운영되지 않았다. 또한 금천구와 중랑구는 2024년에 각각 2회, 8회 운영됐으나 2025년에는 오히려 ‘0회’로 감소했다. 반대로 강북구는 2024년 11회에서 2025년 46회로 418% 급증했고, 송파구는 8회에서 44회로 550% 증가하는 등 양극화 현상이 심화됐다. 최 의원은 “금천구의 경우 고령인구 비중이 21.9%로 대표적인 디지털취약 지역임에도 재단의 디지털해소를 위한 사업수혜가 부족하다”고 지적했다. 또 최 의원은 지역별 편차의 원인 중 하나로 신청 방식을 꼽았으며 “AI시대에 AI재단이 신청서를 팩스, 메일 등으로 수기 접수하고 있다”면서 “온라인 신청 시스템조차 마련되어 있지 않다”고 꼬집었다. 현재 AI동행버스는 기관 단위로 신청받고 있으며, 신청이 없거나 희망 일정이 마감된 경우 해당 자치구에서 운영되지 않는 구조다. 재단 측은 “연초에 유관기관에 공문을 발송하고 협력기관을 통해 홍보한다”고 답변했으나, 실제로는 3개 자치구에서 전혀 운영되지 않았다. 끝으로 최 의원은 “디지털 격차를 해소하기 위한 사업이 오히려 자치구별 격차를 만들어내고 있다”며 “올해 예산편성에 있어서 디지털 소외 지역들을 면밀히 파악해 차별없는 참여형 AI도시를 만들 수 있도록 노력해달라”고 요구했다.
  • 부산교육청, 5조5317억원 내년 본예산안…AI 교육 등 4대 과제 추진

    부산교육청, 5조5317억원 내년 본예산안…AI 교육 등 4대 과제 추진

    부산시교육청은 5조 5317억원 규모의 2026년도 부산시 교육비특별회계 본예산안을 부산시의회에 제출했다고 11일 밝혔다. 이는 올해보다 3.7%(1966억원) 증가한 것이다. 세입 예산안은 중앙정부 이전 수입이 올해보다 255억원 증가한 4조 332억원이며, 자치단체 전입금 9399억원, 기금 전입금 3940억원 등으로 구성됐다. 세출 예산은 ‘다 함께 미래로, 앞서가는 부산교육’ 비전으로 4대 역점 과제를 중심으로 교육 정책을 추진할 수 있도록 편성했다. 4대 역점 과제는 ▲AI 시대를 선도하는 인간중심 미래 교육 ▲학력과 마음을 함께 키우는 맞춤교육 ▲교육활동을 지키는 안전한 부산교육 ▲지혜로운 미래인재로 성장하는 시민교육이다. AI 시대를 선도하는 인간중심 미래 교육에는 총 931억원을 편성했다. 미래 인재 육성을 위한 수업 혁신에 236억원을 투입하고, 디지털미디어 교육과 AI 역량 강화, 디지털 교육 기반 구축에 162억원을 반영했다. 학생의 조화로운 성장을 위해 1인당 4만~6만원의 예술 체험비를 지원하는 등 독서·문화·예술 교육에 총 333억 원, 각종 체육활동 지원에 200억 원의 예산을 배정했다. 학력과 마음을 함께 키우는 맞춤교육 부문에는 5815억원을 배정했다. 중학생의 자기주도 학습 기반을 조성하기 위해 학교당 2000만원 내외 예산을 지원해 자율적 교육활동을 보조한다. 정부 정책에 앞서 3~5세 사립유치원 무상교육을 조기 시행하고, 어린이집에 1인당 1만원의 보육료를 추가 지원하는 데 453억원을 투입한다. 학교와 교육청, 교육지원청 연계를 통한 학습, 심리, 심리 전반을 통합 관리하는 학생 맞춤 통합지원 운영 등 심리·정서 돌봄 강화와 교육복지에는 4652억원을 배정했다. 특수교육대상자와 다문화 학생을 지원하는 데 286억원을 반영했으며, 진로·직업 교육 확장에 168억원을 투자하기로 했다. 이와 함께 교원의 교육활동 보호를 위한 법률지원, AI 비서인 ‘PenGPT’ 기반 학교 행정 효율화 시스템 정착 등을 추진해 교사가 행정 부담을 덜고 본연의 업무에 전념할 수 있도록 할 예정이다. 노후 학교 시설 개선에 3384억원을 반영해 모두가 쾌적한 교육환경을 마련한다. 학생을 지혜로운 미래 인재로 육성하는 시민 교육에는 147억원을 반영했다. 부산역사관 운영에 32억원, 해양 교육에 49억원, 지속 가능한 생태전환 교육에 66억원을 편성해 지역 역사와 특성을 살린 시민 교육을 활성화한다. 이번 2026년도 예산안은 이달 말부터 부산시의회 교육위원회 예비 심사, 예산결산특별위원회 종합심사를 거쳐 다음 달 11일 본회의에 상정된다.
  • “카톡 피곤해, 왜 바뀐거야!” 90%가 ‘불호’

    “카톡 피곤해, 왜 바뀐거야!” 90%가 ‘불호’

    온라인 메신저 카카오톡(카톡)의 최근 개편에 대해 이용자 다수는 피로감을 느끼는 것으로 조사됐다. 한국언론진흥재단이 11일 공개한 온라인 설문조사 결과에 따르면 카톡 친구 탭 개편이 반영된 버전을 사용하는 이들의 90.1%는 ‘별로 알고 싶지 않은 소식까지 보게 돼 피로감을 느낀다’고 답했다. ‘내 활동이 친하지 않은 사람에게 노출될 수 있어 부담스럽다’는 응답도 90.9%로 집계됐다. 최근 카톡은 프로필 변동 내역이 인스타그램의 피드처럼 자동 노출되도록 친구 탭을 개편했는데, 과도한 정보와 원치 않는 노출 때문에 스트레스를 받는다는 부정적 의미로 풀이된다. ‘친구들 소식에 하트나 댓글로 소통할 수 있어서 편하다’는 응답은 20.9%, ‘친구 근황을 한눈에 볼 수 있어 편하다’는 응답은 20.5%로 긍정적 반응은 상대적으로 적었다. 카톡 이용자의 79.7%는 친구 탭 개편 전 버전으로 돌리고 싶다고 답하기도 했다. 반면 카톡의 기능 개편 중 대화방의 메시지 삭제 가능 시간을 5분에서 24시간으로 대폭 늘린 것에 대해서는 ‘실수를 바로잡을 여지가 커져 마음이 편하다’는 응답이 84.3%로 나타났다. ‘메신저의 삭제 기능을 강화하는 것이 자연스러운 흐름’이라는 응답도 80.6%였다. 다만, 삭제 시간이 연장된 것이 ‘책임을 회피하는 데 악용될 소지가 있다’(67.5%) 혹은 ‘대화 내용이 바뀌거나 사라져 대화 상대에 대한 신뢰가 떨어질 것 같다’(50.6%)와 같은 역효과를 우려하는 목소리도 있었다. 카톡이 본격적인 소셜미디어(SNS)로의 변화를 모색하고 앱 내에서 챗GPT를 구현하는 등 인공지능(AI) 기능을 확장하는 것에 대해서는 ‘너무 많은 기능을 담아 복잡하고 혼란스럽다’는 의견이 86.1%였고 ‘미디어 환경을 고려할 때 자연스러운 현상’이라는 평가는 61.2%였다. ‘더 편리하다’고 답한 이들은 38.1%였다. 이번 조사는 카톡 이용 경험이 있는 20~60대 1000명을 대상으로 지난달 29일~이달 2일 실시됐다.
  • [씨줄날줄] AI 커닝과 구술시험

    [씨줄날줄] AI 커닝과 구술시험

    시험 부정행위인 ‘커닝’(cunning)을 영어권에서는 ‘치팅’(cheating)이라고 한다. ‘커닝’은 ‘교활한’이라는 뜻이다. 원래 치팅이라고 해야 맞는데 아마도 일본에서 ‘간닝구’(カンニング)라고 한 것을 따라 쓴 것 같다. 중국·홍콩·대만에서는 ‘차오샤오차오’(抄小抄)라고 부른다. 동서양 할 것 없이 오래전부터 시험이 있는 곳에는 커닝이 있었다. 조선시대 과거 시험에서도 커닝 페이퍼를 콧구멍이나 붓뚜껑에 숨기기도 했다. 작은 책자나 종이에 출제빈도가 높은 시구를 빽빽하게 적는 ‘협책’(挾冊)도 있었다. 지난달 연세대 중간고사에서 집단적인 부정행위 정황이 있었던 것으로 드러났다. 3학년 대상 수업 과목에서 수강생 600여명 중 상당수 학생들이 시험 중 챗GPT 등 인공지능(AI)을 활용했다. 고려대 교양과목 중간고사에서도 카카오톡 오픈채팅방을 통한 일부 학생들의 집단 커닝이 있었다. 생성형 AI가 대중화된 지 3년. 대학가의 혼란은 갈수록 커지는 모습이다. 사용 정책이나 윤리 기준 논의가 AI 발전 속도를 따라잡지 못하고 있다. 한국대학교육협의회에 따르면 전국 대학 131곳 중 71.1%가 생성형 AI 가이드를 아직 마련하지 못했다. 대학에서의 AI 윤리 지체현상이 심각한 셈이다. 미국 대학들도 AI 커닝으로 골머리를 앓고 있기는 마찬가지. 텍사스주의 베일러대는 학생들에게 답안지를 손으로 써내게 했고, 스탠퍼드대는 시험장에 감독관을 참석시켜 지켜보게 했다. 구술시험을 선택하는 학교도 늘고 있다. 미국 샌디에이고 캘리포니아대(UCSD) 공대는 지난 3년간 학생들을 대상으로 7000여건의 구술시험을 실시한 결과 부정행위가 줄고 학업 성취도가 높아졌다는 연구 결과를 발표했다. 최첨단 AI가 생활 깊숙이 들어온 시대에 부정시험을 막기 위한 처방이 구술시험이라니. 2000년 전 소크라테스가 제자들과 나눈 대화 방식으로 결국 시험을 대체해야 한다니 역시 역사는 돌고 도는 모양이다.
  • 연세대 이어 고려대도 ‘AI 커닝’ 발칵 “시험 전면 무효화”

    연세대 이어 고려대도 ‘AI 커닝’ 발칵 “시험 전면 무효화”

    연세대에 이어 고려대 중간고사에서도 인공지능(AI) 등을 이용한 집단 부정행위 정황이 드러나 논란이 커지고 있다. 명문사학으로 꼽히는 두 학교를 비롯해 대학가에서 최근 발생하고 있는 ‘AI발 부정행위’에 대한 대대적인 점검이 필요하다는 목소리가 나온다. 10일 고려대에 따르면 지난달 25일 비대면으로 치러진 교양과목 ‘고령사회에 대한 다학제적 이해’ 중간고사에서 일부 학생들이 카카오톡 오픈채팅방을 통해 문제와 답변을 공유했다. 시험은 약 1000명의 학생이 동시에 온라인으로 30분 정도 치르는 방식이었다. 학생들 중엔 강의 자료를 AI에 학습시킨 이후 답변을 도출해, 이를 제출하거나 다른 학생들에게 공유한 이들도 있는 것으로 알려졌다. 일부 학생들로부터 부정행위를 제보받은 학교 측은 지난달 27일 ‘중간고사 초유의 사태 발생과 관련하여’라는 제목의 공지를 통해 “도저히 부정행위를 묵과할 수 없으므로 중간고사 전면 무효화라는 특단의 조치를 내린다”고 밝혔다. 고려대 관계자는 “학교는 관련 사실을 조사 중이며 이번 일을 계기로 기말고사 운영 방식 및 부정행위 방지 대책도 논의 중”이고 말했다. 이밖에 고려대에서는 지난달 초 한 교양과목 수업에서 학생 1명이 퀴즈 답변을 얻기 위해 AI를 활용하다 조교에게 발각되기도 했다. 수업에서 진행된 이 퀴즈는 2학기 전체 성적에서 약 5% 정도 비중을 차지하는 평가로, AI는 물론 휴대전화를 사용한 부정행위 등은 금지돼 있다. AI로 퀴즈에 대한 답변을 준비하던 학생은 0점 처리됐다. 수업 담당 교수는 “해당 학생에 대한 추가 조치를 고려 중”이라고 말했다. 대학가에 침투한 AI가 무분별하게 사용된 경우는 지난 1학기에도 있었다. 동국대 한 교양 수업 중간고사 시험에서도 다수의 학생이 AI를 활용한 정황이 포착됐다. 동국대 관계자는 “현재까지 AI를 이용한 부정행위의 처벌 조항은 따로 없다”며 “당시 부정행위에 대한 의심이 있었지만, 처벌은 교수 재량에 맡겨뒀다”고 말했다. 최근 논란이 일었던 연세대 ‘자연어 처리(NLP)와 챗GPT’ 수업은 지난해에도 AI를 활용한 부정행위 정황이 있었던 것으로 알려졌다. 연세대는 이번 ‘AI 부정행위’ 논란과 관련해 조만간 AI 윤리에 대한 학내 구성원들의 의견을 모으는 자리를 갖기로 했다. 김명주 AI안전연구소장은 “AI 이용을 기반으로 한 학생 학업 능력 평가는 현재 과도기적인 상태”라며 “AI 활용 시험과 이를 활용하지 않은 시험을 나누고, 부정행위에 대한 기준과 가이드라인도 필요하다”고 말했다.
  • 연대 이어 고대도 ‘AI 커닝’ 정황…해당 시험은 무효

    연대 이어 고대도 ‘AI 커닝’ 정황…해당 시험은 무효

    연세대에 이어 고려대 중간고사에서도 인공지능(AI) 등을 이용한 집단 부정행위 정황이 드러나 논란이 커지고 있다. 명문사학으로 꼽히는 두 학교를 비롯해 대학가에서 최근 발생하고 있는 ‘AI발 부정행위’에 대한 대대적인 점검이 필요하다는 목소리가 나온다. 10일 고려대에 따르면 지난달 25일 비대면으로 치러진 교양과목 ‘고령사회에 대한 다학제적 이해’ 중간고사에서 일부 학생들이 카카오톡 오픈채팅방을 통해 문제와 답변을 공유했다. 시험은 약 1000명의 학생이 동시에 온라인으로 30분 정도 치르는 방식이었다. 학생 중엔 강의 자료를 AI에 학습시킨 이후 답변을 도출해, 이를 제출하거나 다른 학생들에게 공유한 이들도 있는 것으로 알려졌다. 일부 학생들로부터 부정행위를 제보받은 학교 측은 지난달 27일 ‘중간고사 초유의 사태 발생과 관련하여’라는 제목의 공지를 통해 “도저히 부정행위를 묵과할 수 없으므로 중간고사 전면 무효화라는 특단의 조치를 내린다”고 밝혔다. 고려대 관계자는 “학교는 관련 사실을 조사 중이며 이번 일을 계기로 기말고사 운영 방식 및 부정행위 방지 대책도 논의 중”이고 말했다. 이밖에 고려대에서는 지난달 초 한 교양과목 수업에서 학생 1명이 퀴즈 답변을 얻기 위해 AI를 활용하다 조교에게 발각되기도 했다. 수업에서 진행된 이 퀴즈는 2학기 전체 성적에서 약 5% 정도 비중을 차지하는 평가로, AI는 물론 휴대전화를 사용한 부정행위 등은 금지돼 있다. AI로 퀴즈에 대한 답변을 준비하던 학생은 0점 처리됐다. 수업 담당 교수는 “해당 학생에 대한 추가 조치를 고려 중”이라고 말했다. 대학가에 침투한 AI가 무분별하게 사용된 경우는 지난 1학기에도 있었다. 동국대 한 교양 수업 중간고사 시험에서도 다수의 학생이 AI를 활용한 정황이 포착됐다. 동국대 관계자는 “현재까지 AI를 이용한 부정행위의 처벌 조항은 따로 없다”며 “당시 발생한 건은 부정행위로 간주할 수 있지만, 처벌은 교수 재량에 맡겨뒀다”고 말했다. 최근 논란이 일었던 연세대 ‘자연어 처리(NLP)와 챗GPT’ 수업은 지난해에도 AI를 활용한 부정행위 정황이 있었던 것으로 알려졌다. 연세대는 이번 ‘AI 부정행위’ 논란과 관련해 조만간 AI 윤리에 대한 학내 구성원들의 의견을 모으는 자리를 갖기로 했다. 김명주 AI안전연구소장은 “AI 이용을 기반으로 한 학생 학업 능력 평가는 현재 과도기적인 상태”라며 “AI 활용 시험과 이를 활용하지 않은 시험을 나누고, 부정행위에 대한 기준과 가이드라인도 필요하다”고 말했다.
  • “명문사학 초유의 사태” 연대 이어 고대서도 ‘커닝’…“시험 무효”

    “명문사학 초유의 사태” 연대 이어 고대서도 ‘커닝’…“시험 무효”

    국내 최고의 명문 사립대로 꼽히는 연세대와 고려대에서 중간고사 기간 도중 집단 부정행위 사태가 발생했다. 10일 연합뉴스와 매일경제에 따르면 고려대의 교양 강의 ‘고령사회에 대한 다학제적 이해’에서 지난달 25일 치러진 중간고사 도중 일부 학생이 부정행위를 한 정황이 포착됐다. 해당 강의는 수강생이 1400여명에 달하는 초대형 강의로, 수업과 시험이 비대면 온라인으로 진행된다. 대학 측의 설명에 따르면 지난달 25일 치러진 중간고사에 응시한 일부 수강생들이 단체 대화방에서 시험 문제 화면을 공유하며 부정행위를 저지른 것으로 파악됐다. 해당 대화방은 수강생들이 강의 관련 자료와 공지 등을 공유하던 대화방이었는데, 수백명이 참여하는 대화방과 그 밖의 몇몇 대화방에서 부정행위가 이뤄진 것으로 알려졌다. 이런 부정행위를 다른 학생들이 대학 측에 제보해 들통났다. 학교 측은 지난달 27일 ‘중간고사 초유의 사태 발생과 관련하여’라는 제목의 공지를 통해 “명문사학에서 이 같은 일이 발생한 것에 대해 교수님들이 큰 충격을 받았다”고 밝혔다. 대학 측은 “도저히 부정행위를 묵과할 수 없으므로 중간고사 전면 무효화라는 특단의 조치를 내린다”며 이후 치러질 평가에서도 부정행위가 발각되면 F 처리와 행정조치를 강구할 것이라고 경고했다. 대학 측은 부정행위에 가담한 수강생들의 처리 방안에 대해 논의 중이다. 앞서 연세대 신촌캠퍼스에서도 지난달 15일 치러진 ‘자연어 처리(NLP)와 챗GPT’ 중간고사에서 수강생들이 챗GPT 등 생성형 인공지능(AI)을 이용해 부정행위를 저지른 것으로 드러나 대학 측이 징계를 검토하고 있다. 연세대에 따르면 600여명이 수강하는 초대형 강의인 해당 강의의 중간고사는 수강생들이 컴퓨터 화면에 자기 손과 얼굴이 나오도록 하는 방식으로 치러졌는데, 일부 수강생들이 촬영 각도를 조정하거나 화면에 창을 여러 개 띄우는 등의 방식으로 자기 모습이 드러나지 않게 한 뒤 AI를 사용해 문제를 푼 것으로 파악됐다. 이런 사실이 알려진 뒤 대학생 커뮤니티 ‘에브리타임’ 내 연세대 게시판에서 수강생들을 대상으로 익명 투표를 한 결과 387명이 ‘커닝했다’라고 응답했다. 부정행위를 발견한 교수가 “자수하지 않는 분들은 학칙에 따라 엄중히 처벌하겠다”라고 경고하자 수강생 40여명이 자수했지만, 아직 자수하지 않은 학생들이 있는 것으로 파악됐다. 대학 측은 자수하지 않은 학생들을 대상으로 징계를 검토할 수 있다고 밝혔다. 대학가에서는 코로나19 이후 활성화된 비대면 강의와 강사 인건비를 줄이기 위해 도입된 ‘초대형 강의’, 생성형 AI가 맞물리며 이런 부정행위를 막기 힘들어졌다는 지적이 나온다. 한 거점국립대 교수 A씨는 “챗GPT의 등장 이후 대학 과제는 ‘천하제일 챗GPT 대회’가 됐다. 과제 작성 능력이 챗GPT 활용 능력과 다를 바 없어졌다”면서 “한때 AI 활용 여부를 판별하는 프로그램을 사용해 과제물을 검증하기도 했지만, 이마저도 여의찮아 아예 과제를 없앴다”고 털어놓았다. A씨는 그러면서 “대학가에 늘어나는 비대면 초대형 강의는 부정행위를 막지 못한다”면서 “대학 강의의 질이 점점 떨어지고 있다”고 지적했다.
위로