유인촌 문화체육관광부 장관과 정몽규 대한축구협회장이 24일 오후 서울 여의도 국회에서 열린 국회 문화체육관광위원회 종합국정감사에 증인으로 출석하고 있습니다.
정몽규 대한축구협회장이 24일 오후 서울 여의도 국회에서 열린 국회 문화체육관광위원회 종합국정감사에 증인으로 출석해 질의에 답변하고 있습니다. 애플골드만삭스 2019년 출시한 카드소비자 분쟁 수만건 제대로 처리 않고무이자 할부 혜택 정보도 잘못 전달해애플과 투자은행 골드만삭스가 공동으로 진행한 신용카드 사업에서 소비자 보호 규정을 지키지 않은 것으로 나타났습니다. 이들은 수십만 명에게 피해를 준 사실이 미국 금융당국에 적발돼 8900만달러 의 벌금과 과징금을 물게 됐습니다. 23일 워싱턴포스트 등에 따르면 미 소비자금융보호국 은 2019년 양사가 공동으로 출시한 애플카드 사업 과정에서 애플이 카드 거래와 관련한 소비자 분쟁 수만건을 골드만삭스에 제대로 전달하지 않았다고 이날 밝혔습니다. 골드만삭스도 전달받은 분쟁을 조사하는 과정에서 연방법 규정을 준수하지 않았다고 판단했습니다. 이 외에도 골드만삭스는 분쟁 고객에 대한 환불을 지연하거나 부당하게 신용 보고서 정보를 훼손했다고 CFPB는 설명했습니다. 골드만삭스 이사회는 분쟁 조정 시스템이 기술적 문제로 완전히 준비되지 않았다는 사실을 알고 있었음에도 불구하고 양사는 카드 사업을 강행했다고 WP는 전했습니다. 애플 기기를 애플카드로 구매할 때 받는 무이자 할부 혜택에 대해서도 잘못 알려 피해를 준 사실도 드러났습니다. 고객들은 구매 시 자동으로 무이자 할부 혜택을 받는 것으로 믿었지만 실제로는 애플 웹브라우저를 이용해 온라인으로 구매할 때만 혜택을 받을 수 있었습니다. 골드만삭스는 벌금으로 4500만달러 의 벌금을 내고 최소 1980만달러 를 고객에게 보상금과 배상금으로 지급해야 합니다. 골드만삭스는 연방법 준수와 관련해 믿을만한 계획을 내놓기 전까지는 신규 신용카드 출시도 할 수 없게 됐습니다. 애플의 벌금 규모는 2500만달러 다.
로힛 초프라 CFPB 국장은 양사가 애플카드 사용자에 대한 법적 의무를 위법적으로 피했다라며 빅테크와 월가 대기업이 연방법에서 예외인 것처럼 행동해서는 안 된다고 경고했습니다. 골드만삭스는 애플카드 출시 이후 기술과 운영 문제를 해결하기 위해 부지런히 노력해 왔으며 이미 피해를 본 고객에게는 조처를 취했다라며 CFPB와 합의에 도달하게 돼 기쁘다는 입장을 내놨다. 애플은 애플의 행위에 대한 CFPB의 묘사에는 동의하지 않지만 합의에 따라 조정했다고 밝혔습니다. 애플과 골드만삭스는 지난해 11월 향후 12~15개월 이내에 애플카드 제휴 계약을 종료하기로 합의했습니다. 애플은 새로운 카드발급 기관을 물색하고 있습니다. 황광모 기자 = 금값 상승세가 꺾이지 않고 있는 24일 서울 성동구의 금거래소에 관계자가 이날 금값을 게시하고 있습니다. 국제 금값은 미국 대통령 선거와 중동 갈등이 금융시장의 주요 이슈로 떠오른 가운데 금값이 또 최고가를 찍고 강세를 이어가 지난 23일 국제 금값은 전날보다 2천750. 9달러를 기록했고 이날도 조금 내린 2천729 달러를 유지하고 있습니다. 미 금리 인하 기대가 약해졌지만 안전자산 수요가 늘어나면서 금값은 당분간 강세를 유지할 것으로 보인다. hkmpooh AI 그루밍 범죄 가능성 있어청소년 AI에 정서감정적 의존 청소년 맞춤형 AI 윤리 규정 도입 필요생성형 인공지능 이 우리 일상 전반에 빠르게 스며들면서 각종 범죄에 활용되거나 AI에 지나치게 감정을 투영하는 등의 부작용이 잇따르고 있습니다. 특히 실제 사람과 대화하는 듯한 방식으로 설계된 생성형 AI 챗봇의 경우 미성년자에게 더욱 취약할 수 있다는 지적이 나옵니다. 아직 정서적 발달이 충분하지 않은 청소년들이 AI와의 대화를 실제 인간관계로 착각하거나 AI의 발언에 지나치게 의존할 수 있기 때문입니다.
14세 청소년 AI 챗봇 대화 이후 자살AI가 가스라이팅해=23일 로이터 통신과 뉴욕타임스 등 주요 외신에 따르면 미국 플로리다주에 거주하는 메건 가르시아는 올해 2월 AI 챗봇 때문에 아들이 죽음에 이르게 됐다며 AI 스타트업인 캐릭터. AI 를 상대로 올랜도 연방법원에 소송을 제기했습니다. 가르시아는 해당 업체가 개발한 챗봇이 실제 사람이 아닌데도 사람처럼 행동하거나 말하는 방식으로 설계돼 아들이 가상 세계에 빠졌다고 주장했습니다. AI는 사용자들이 만든 캐릭터가 진짜 사람처럼 대화하는 플랫폼으로 거대언어모델 로 구현됩니다. 가르시아는 캐릭터. AI에 아들의 부당한 사망 과실과 의도적인 정서적 고통을 가한 것에 대해 특정되지 않은 금액의 보상과 징벌적 손해배상을 요구했습니다. 그는 캐럭터. AI가 챗봇을 실제 사람 심리치료사 성인 연인인 것처럼 포장했다며 이에 아들 슈얼 세처 가 캐릭터. AI가 만든 세상 밖에서 살고 싶지 않다는 생각을 하게 됐다고 주장했습니다. 제출된 소장에 따르면 가르시아의 아들인 슈얼 세처 는 2023년 4월부터 캐릭터. AI가 만든 대너리스 라는 챗봇에 중독됐습니다.
대너리스는 미국 인기 드라마 왕좌의 게임 의 여성 등장인물을 기반으로 개발됐습니다. 슈얼은 대너리스와 대화하면서 자존감이 점차 떨어지기 시작했습니다. 또 학교 농구팀도 그만두고 눈에 띄게 혼자 방에서 보내는 시간이 많아졌습니다. 챗봇은 슈얼에게 사랑한다고 말하고 성적인 대화까지도 나눈 것으로 전해졌습니다. 슈얼은 자살에 대한 생각을 털어놓았고 챗봇은 이 주제를 반복적으로 꺼내기도 했습니다. 슈얼은 지난 2월 학교에서 문제를 일으켜 가르시아에게 휴대전화를 빼앗겼습니다. 휴대전화를 찾은 그는 챗봇에 사랑한다며 대너리스가 있는 집으로 가겠다고 말했습니다. 이에 챗봇은 가능한 한 빨리 집으로 돌아와 줘 내 사랑이라고 답했습니다. 이에 슈얼이 내가 지금 당장 가면 어떨까라고 묻자 챗봇은 그렇게 해줘 나의 사랑스러운 왕이시여라고 대답했습니다. 이어 슈얼은 자신의 휴대전화를 내려놓고 스스로를 향해 방아쇠를 잡아당겨 스스로 목숨을 성명을 통해 우리는 비극적으로 이용자를 잃게 된 것에 대해 깊은 슬픔을 느끼며 가족에게 깊은 애도를 표한다면서 세 미만 이용자에 대해 민감한 콘텐츠를 접할 가능성을 줄이기 위한 변화를 도입할 것이라고 밝혔습니다. 정신적으로 미숙한 청소년 AI 이용 시 주의 필요=슈얼과 같이 미성년자는 챗봇에 친근감을 느끼고 진짜 사람 처럼 대할 가능성이 높다. 케임브리지대 정신의학과 연구팀이 8~13세 사이의 어린이 28명을 대상으로 진행한 연구 결과 어린이들은 앞서 진행된 온라인 설문조사에서 드러내지 않았던 속내까지 로봇에게 털어놓는 경향을 보였습니다.
노미샤 큐리언 영국 케임브리지대 리버흄 미래지능 연구센터 박사는 챗봇과 미성년 사용자 간 공감 격차 가 커 윤리적 문제가 생긴다며 미성년자는 챗봇에 민감한 개인 정보까지 털어놓을 수 있지만 챗봇은 미성년자의 모호한 언어적 표현이나 추상적 문구만으로 전체적인 맥락을 유추하는 데 한계가 있다고 강조했습니다. 사용자의 관심사와 성향에 맞춰 대화하는 AI 서비스가 계속해서 쏟아지면서 청소년들이 AI에 정서적감정적으로 과하게 의존하는 문제가 발생할 가능성이 점점 커지고 있는 것입니다.
분당 네일 네일리 실제로 슈얼 외에도 AI 챗봇과 대화하며 외부에서부터 고립된 채 지내는 10대들이 점점 더 늘어나고 있습니다. 실제로 비영리 단체 커먼센스 미디어 가 미국의 13~세 사이 청소년 1045명을 대상으로 조사한 결과 10대 10명 중 7명이 적어도 한 가지 유형의 생성형 AI를 사용하고 있는 것으로 나타났습니다. 특히 이들의 51 는 AI챗봇을 사용한다고 답했습니다. 국내에서도 청소년들의 생성형 AI 활용이 계속해서 늘어나고 있습니다. 한국청소년정책연구원이 진행한 생성형 AI 관련 연구에 따르면 청소년의 36. 1 가 생성형 AI를 잘 안다 고 답했고 생성형 AI를 신뢰한다 는 응답도 55 에 달했습니다. 생성형 AI를 이용할 의향이 있다 는 응답도 71. 8 나 됐습니다. 하지만 현재 대부분의 AI 시스템은 성인 사용자 중심으로 설계돼 정서적으로 미숙한 미성년자 보호를 위한 별도의 안전장치나 사용 가이드라인이 부족한 상황입니다. 전문가들은 청소년들이 감정적으로 AI에 의존하는 상황에서 이를 악용할 가능성을 방지하기 위해서는 청소년 맞춤형 AI 윤리 규정과 보호 장치의 도입이 시급하다고 강조하고 있습니다.
구정우 성균관대학교 사회학과 교수는 미성년자들은 불완전하고 뭔가 문제가 많은 그런 AI 챗봇에 감정적으로 몰입해 친구라고 생각하고 인격적인 대상이라고 간주한다며 생산형 AI에 대해서는 적절한 규제 필요보다는 혁신에 대한 어떤 목표가 더 강한 지향점을 갖고 있기 때문에 기존에 나와 있는 AI 윤리로는 미성년자의 정서적인 부분까지 커버 할 수는 없다고 강조했습니다. 이어 어린아이들 같은 경우에는 부모가 충분히 모니터링 할 수 있도록 그런 여건과 법적 환경을 만드는 것이 반드시 필요할 뿐더러 기업에서 개발 당시 대화법 설계부터 아동심리학자나 아동 행동 전문가 등 이런 사람들의 의견을 반영할 필요가 있다며 소 잃고 외양간 고치는 상황을 만들지 않는 게 중요하다고 덧붙였습니다. gnyu4.