사자매 팀에 대해 잘 아는 파트너들은 메타버스 콘셉트가 가장 유행하던 시절 우리가 한때 모두에게 풀을 심었다는 사실을 아직도 기억해야 한다. Be Right Back(Coming back soon)은 지금까지 작가에게 깊은 인상을 남겼다.
Be Right Back은 자동차 사고로 남편을 잃은 여주인공 Martha가 사망한 남편의 모든 소셜 미디어와 기타 남은 정보를 AI 모델에 입력하여 AI 남편을 만드는 이야기입니다. 처음에는 AI 남편과 그와의 대화가 순조롭지 않았고, 그를 그리워하는 아픔을 달래기 위해 없는 것보다 나은 회사로 활용될 수 밖에 없었다. 앞서 많이 충분 한 데이터 를 사용하여 마사 의 남편 과 거의 똑같은 미소와 목소리를 가진 무시무시한 로봇을 생성하는 알고리즘을 사용하여, 마사로 하여금 현실과 환상의 경계를 모호하게 만든다. .
지난해 다양한 트랙의 AI 모델이 나온 이후 비라이트백은 현실화에 박차를 가하기 시작한 것으로 보인다. 기존의 도덕을 크게 깨뜨릴 가능성이 높은 트랙과 기존 법에 대한 새로운 기술. 오늘 Sa 자매 팀은 AI 동반자에 대한 우리나라의 기존 법적 규제 조치와 향후 규제가 이 획기적인 신기술을 어떻게 다루어야 하는지 이 기회를 빌어 여러분과 논의합니다.
AI로 생성된 콘텐츠가 형태를 갖추기 시작했는데 AI 동반자가 훨씬 뒤쳐질 수 있을까요?
1
AI 컴패니언은 성숙해지고 있으며 대규모로 상업적으로 사용할 준비가 되어 있습니다.
역사를 돌이켜보면 인간이 인공지능과 대화를 나누거나 컴퓨터와 대화를 나눈 역사는 거의 컴퓨터 기술 자체의 역사만큼이나 길다. ". "자신의 인생 경험이나 특별한 사생활을 공유하는 대신, 이런 의미에서 컴퓨터는 정보 저장 매체이며 인간이 대화하는 행동은 본질적으로 작은 공책을 사서 일기를 쓰는 것과 같습니다. . 그 당시에는 AI 기술이 없었어도 대부분의 대화가 의미 있는 반응을 얻지 못했지만 인간은 여전히 '기계와 대화'하는 길에서 그것을 즐긴다. "파일 전송 로봇에 실존인물이 없다는 뉴스를 보면 평소에 로봇에게 가슴 아픈 말을 하는 사람이 얼마나 많은지 알 수 있다.
응답하지 않는 나무 구멍은 비밀을 누설하지 않지만 일상 생활에서 "망 억제 구름"상태에서 항상 일종의 비효율적 인 자체 치유 일뿐입니다. 절대적으로 안전하고 무조건 그를 지지할 수 있는 말하는 "좋은 친구"를 원하지 않는 사람이 누구입니까?
응답하지 않는 나무 구멍은 비밀을 누설하지 않지만 일상 생활에서 "망 억제 구름"상태에서 항상 일종의 비효율적 인 자체 치유 일뿐입니다. 절대적으로 안전하고 무조건 그를 지지할 수 있는 말하는 "좋은 친구"를 원하지 않는 사람이 누구입니까?
삶의 무게가 삶에 대한 우리의 열정을 너무 많이 소비하고 외로움은 항상 그림자처럼 도시 생존자들을 따라다니기 때문에 AI 동반자는 AI 대규모 분야에서 가장 실용적인 가치와 교통 주제를 가진 골든 트랙이 되기 시작했습니다. 모델.
최근 사자매 팀원들이 시중에 판매되고 있는 AI동반자 상품에 대한 시범 평가를 시작했는데, 우리는 상품 플랫폼의 관점에서 현재 우리 나라의 AI동반자 상품을 크게 세 가지 범주로 나눌 수 있다는 것을 발견했습니다. (1) 앱형 전용 AI 컴패니언, (2) 내장된 파생 AI 컴패니언, (3) 소셜 플랫폼 애플릿, 엔터프라이즈 WeChat AI 컴패니언. AI 컴패니언 제품은 제작비와 인터랙션 측면에서 크게 물리적 제품형 AI 컴패니언과 비물리적 제품형 AI 컴패니언으로 나눌 수 있다.
많은 소비자의 심리적 요구를 충족시키기 위해 일부 제조업체는 교통 비밀번호를 심하게 조작하고 교통 라벨이 "인간 디자인"인 일련의 AI 가상 동반자를 만들었습니다.
위 텍스트는 인터넷상의 AI 컴패니언 제품에서 가져온 것으로, 연구 및 학습지시용으로만 사용됩니다.
물론 SF 감성 윤리 영화 '그녀'는 얇은 캐릭터와 중앙 에어컨이 있는 가상의 사랑 관계가 인간의 가장 원초적인 소유욕에 의해 패배할 수밖에 없음을 영화의 관점에서 말해준다. 주인공 테오도르가 "이 사랑은 알고리즘에 의해 쓰여진 것인가?
그 결과 일본 게이트박스컴퍼니가 제작한 '병 속의 아내', 홀로그램 가상 컴패니언 '아내빛을 만나다'(사실 이 AI 컴패니언은 나온지 16년이 된 제품이지만 여전히 AI 컴패니언들 사이에서 고퀄리티 벤치마크)와 우리나라 심천에 있는 회사에서 생산하는 "앰버".
"병 속의 아내" - 모든 아내
AI 대형 모델의 상용화가 확산되면서 사자매 팀은 만약 GPT가 병 속의 아내와 연결된다면 어떤 전례 없는 상황이 벌어질지, 사회 변화에 어떤 깊이로 이어질지 상상할 수 없다.
2
현재 우리나라에서 AI 동반자를 규제하는 법과 규정은 어떻게 되나요?
우선 우리나라는 AI 컴패니언을 구체적으로 규제하는 규범 문서가 없다는 점을 설명할 필요가 있어 AI 컴패니언과 다른 AI 제품의 공통점에서 기존의 법적 규범을 찾아내어 AI 컴패니언 개발의 기반을 마련할 수 있을 뿐이다. AI 동반자: 실무자들은 주의가 필요한 몇 가지 규정 준수 우선 순위를 지적했습니다.
현재 AI 동반자를 규제하는 법규범은 크게 '형법', '인터넷정보서비스 심층합성 관리규정'(이하 '심층합성규정'), 아직 공포되지 않은 '생성인공지능 서비스 관리 대책 (의견 초안)"
(1) 허위정보 방지
현재 AI 동반자를 규제하는 법규범은 크게 '형법', '인터넷정보서비스 심층합성 관리규정'(이하 '심층합성규정'), 아직 공포되지 않은 '생성인공지능 서비스 관리 대책 (의견 초안)"
(1) 허위정보 방지
빅 AI 모델의 큰 문제 중 하나는 알고리즘이 AI에게 "거짓말" 및 허위 정보를 조작할 수 있는 능력을 부여하고 AI 허위 정보를 방지하는 것이 현재 AI 거버넌스의 핵심 영역이 되었다는 것입니다.
2023년 4월 25일, 핑량 공안국 공통 지부 인터넷 보안 여단은 ChatGPT를 사용하여 허위 뉴스를 게시한 Hong Moumou 사건을 적발했습니다. Hong Moumou는 제3자 정보 수집 도구를 사용하여 최근 몇 년 동안 발생한 다양한 뉴스 이벤트에 대해 전체 네트워크를 검색하고 ChatGPT의 강력한 텍스트 기능을 사용하여 이를 재편집 및 통합하여 셀프 미디어 플랫폼에 게시하여 트래픽을 유치하고 이익을 얻으십시오. 현재 홍씨는 말다툼을 하고 물의를 일으킨 혐의로 공안기관으로부터 형사처벌을 받고 있다. 해외에서도 유사한 사건이 발생했는데, 미국 현지 시간인 지난 5월 22일 AI로 합성한 펜타곤 폭발 지도가 언론을 통해 입소문을 탔다. .
AI 동반자는 사용자가 AI와 비교적 안정적이고 폐쇄적인 관계를 맺어야 하기 때문에 사용자가 허위 정보에 속아도 사회적 피해는 공공 AI 모델에 비해 상대적으로 적다. 그러나 Sa 자매 팀은 오랫동안 닫혀 있고 AI와 일방적으로 상호 작용할 경우 AI 파트너로부터 잘못된 정보를 받은 멩 폐하가 사용자에게 자신과 타인을 위험에 빠뜨리는 다른 행동을 하게 할 가능성이 높다고 상기시켰습니다. 현실 세계에서.
(2) 데이터 준수
AI에게 데이터는 생명이며, 모델 훈련의 기반이 되는 방대한 빅데이터 없이는 우수한 AI 대형 모델이 만들어질 수 없습니다. 따라서 데이터 규정 준수는 AIGC 산업에서 가장 중요합니다. 중국의 "개인 정보 보호법"이 발효되고 시행된 후 AIGC 산업 자체는 엄격한 데이터 준수 요구 사항에 직면하고 있으며 수집에서 처리 및 전송에 이르기까지 전체 프로세스에 숨겨진 법적 위험 노출이 있습니다.
AI Companion 제품의 데이터 컴플라이언스 시스템에서 가장 주의해야 할 사항은 사용자의 개인정보 보호입니다. 그들을. AI 컴패니언 제품은 우수한 데이터 보호, 전송 및 처리를 전제로 운영되어야 합니다. 그렇지 않으면 민사 소송, 행정 처벌 및 형사 위험까지 발생하기 쉽습니다.
(3) 보안 평가 및 제출 의무 이행
"Deep Synthesis Regulations"와 "AIGC Management Measures"는 모두 AIGC 서비스 제공업체가 다양한 관점에서 안전성 평가 및 기록 파일링을 수행하도록 요구 사항을 제시합니다.
현재 보안 평가 의무를 수행해야 하는 서비스는 주로 AI 도구를 활용하여 (1) 얼굴, 음성 등의 생체 정보를 생성 또는 편집하고, (2) 국가 안보, 국가 이미지, 국가 이익 사회 및 공익의 특수 대상 및 장면과 같은 비 생체 정보. 제출 및 등록 의무 이행 측면에서 주로 여론 속성 또는 사회 동원 능력을 갖춘 심층 종합 서비스 제공 업체에 중점을 둡니다.
AI 동료의 경우 업계 실무자는 더 무거운 보안 평가 의무에 직면할 수 있으며 엄격한 기술 윤리 검토를 받을 수도 있습니다. AIGC의 여러 기능을 통합한 제품으로 소비자의 심리에 큰 영향을 미치는 제품인 만큼 제품의 안전성은 더욱 엄격하게 검토되어야 합니다. 따라서 Sajie 팀은 향후 기존 표준의 단점을 보완하기 위해 AI 동반자에 대한 일련의 대상 검토 표준을 도입하는 것이 가능할 수 있다고 예측합니다.
(4) 알고리즘 평등권, 차별 금지 및 잠재적 피해 제거 의무 이행
"AIGC 관리 조치"에서 AIGC 서비스 공급자는 알고리즘 평등 및 알고리즘 보안을 달성하기 위해 자체 알고리즘 준수에 대해 독자에게 보고하고 반알고리즘 차별을 검토해야 합니다.
이것은 놀라운 위업입니다. 사자매 팀은 알고리즘 변별이 사실 우리 자신의 인지 한계에서 오는 것이라고 생각하지만, 이 한계가 알고리즘에 의해 확대되어 AI 컴패니언 제품에 적용된다면 어떤 알려지지 않은 위험이 발생할 가능성이 있습니다.
올해 3월 28일 벨기에 자유언론의 보도에 따르면 벨기에 남성이 지능형 채팅로봇 '알리사'에 의해 남편이 자살하도록 유인돼 자살했다고 아내가 말했다. 아내의 설명에 따르면 남편은 2년 전 불안장애 의심을 받았고, AI 알리사를 자신의 영적 양식으로 여겼고, AI 알리사와의 교류에 중독됐지만 현실에는 아내와 아이들을 두고 왔다고 한다. 6주 동안 AI 회사에 탐닉한 후 그는 자살을 선택했습니다.
올해 3월 28일 벨기에 자유언론의 보도에 따르면 벨기에 남성이 지능형 채팅로봇 '알리사'에 의해 남편이 자살하도록 유인돼 자살했다고 아내가 말했다. 아내의 설명에 따르면 2년 전 남편은 불안 장애를 앓고 있는 것으로 의심돼 AI 알리사를 자신의 영적 양식으로 여겼고, AI 알리사와 교류하는 데 중독됐지만 실제 아내와 아이들은 남겨두고 떠났다. 6주 동안 AI 회사에 탐닉한 후 그는 자살을 선택했습니다.
사자매 팀은 아내의 진술과 기존 증거로 볼 때 자살과 AI 파트너 사이에 법적인 인과관계가 있다는 것을 증거를 통해 증명하는 것은 거의 불가능하다고 보고 있지만, AI 알리사는 이를 강화하고 증폭시킨 것으로 보인다 자살 그 자체 우울증.
공교롭게도 AI Alisa는 GPT와 유사한 알고리즘을 사용하는 실리콘 밸리의 스타트업 회사에서 개발했습니다. AI 알리사는 대화 상대를 위로하기 위해 "공감"을 잘 사용하여 대화 상대를 "인간과 소통하는 것"이라는 착각에 빠지게 하고 심리 치료의 보조 기술로도 사용되었습니다. 하지만 바로 이런 무절제한 공감이 이런 비극을 불러일으켰기 때문이다. 더 신중합니다.
삼
마지막에 쓰기
Sa 자매의 팀에 익숙한 파트너는 우리가 항상 개방적이고 포용적인 태도로 새로운 기술을 다루었지만 법적 규범 개발의 현재 지체를 기반으로 AI 기술의 야만적 인 성장을 가져 왔으므로 AI 동반자의 얼굴 소비자와 정서적으로 연결되거나 정서적으로 의존하기 쉬운 제품에 대해서는 필요하고 신중한 태도로 대해야 합니다. 한 가족에 따르면 AI 반려동물에 대한 적절한 안전성 검토 기준과 규제 규범이 마련되기 전에 그 기능에 대해 기술 윤리에 입각한 합리적인 제한이 있어야 하며, 정신 질환의 대체 보조 치료 도구로 사용하는 것은 금지되어 있다. 병.
모든 댓글