AI기본법(’26.1.22 시행) 앞두고도 하위법령에 ‘윤리원칙·고위험 챗봇 안전의무’ 누락 지적
글로벌 사업자도 미성년자 보호·위기 대응을 강화 중… 국내 시행령에 ‘최소 안전기준’ 반영 촉구
“‘산업진흥’과 ‘국민 안전 확보’는 선택 과제가 아닌 필수 과제… AI 서비스로 인해 단 한 명의 국민 목숨도 잃어서는 안 돼”
최형두 의원(마산합포구, 과학기술정보방송통신위원회 간사)은 오늘(10월 29일) 국회 과학기술정보방송통신위원회 국정감사에서 “AI기본법 시행을 앞두고도 지금까지 검토된 시행령 안에 ‘AI 윤리원칙’과 ‘고위험 대화형 서비스 안전의무’가 빠져 있다”며 조속한 보완을 촉구했다. 최 의원은 “해외는 라벨링, 연령보호, 위기대응, 보고의무까지 규정하고, 기업들도 청소년 전용·야간 제한 등 자율 강화 추세”라며 “우리도 시행령에 윤리·안전의무를 명시하고, 청소년 모드, 장시간 사용 경고, 위험 키워드 탐지·사고 보고 의무화를 검토해야 한다”고 강조했다.
■ 법은 생겼지만... ‘윤리 없는 시행령’
최 의원은 “AI기본법 제27조에 윤리원칙이 있으나, 과기부가 준비 중인 시행령에는 구체적인 내용이 담겨 있지 않은 것으로 확인됐다”고 지적했다. AI기본법은 지난 2024년 12월 국회 통과, 2025년 1월 21일 공포, 오는 2026년 1월 22일 시행 예정이다.
이어 “AI 윤리기준 등 원칙과 AI 전략 고도화 발표 시점도 분명히 하라”고 질의했다.
■ 가이드라인은 있지만 ‘비구속적’... 고위험 챗봇 안전의무 공백
방통위가 올 2월 「생성형 AI 이용자 보호 가이드라인」을 행정지침(자율 준수)으로 발표한 바 있으나 법적 구속력은 없다. 이 행정지침은 잠재 위험 사전 방지와 안전한 서비스 환경 조성을 위한 참고지침일 뿐, 법률상 안전의무·감사·사고보고 체계는 아직 구체화 단계에 머물러 있다고 전문가들은 지적하고 있다.
또한 정부가 제시한 「AI 윤리기준」(3대 원칙·10대 요건)에도 ‘침해금지’와 ‘안전성’이 명시되어 있으나, 이를 하위법령으로 실제 작동시키는 장치가 미흡하다고 했다.
■ ‘기업 위축’ 우려?… 최저 기준은 투자 촉진과 신뢰 회복의 출발점
최 의원은 “이번 SK·KT 해킹 사태에서도 드러났듯, 우리는 ‘최저 가이드라인’만 제시해 놓고 기업이 자발적으로 투자하길 기대해 왔다. 그러다 사고가 나면 ‘소 잃고 외양간 고치자’로 끝난다”며 “가이드라인이 아니라 최소 안전기준과 책임 체계를 명확히 해야 기업이 예산과 인력을 배정한다”고 지적했다.
이어 “미국은 가이드라인 중심이 아니라 강한 사후책임과 집단소송 환경이 투자 압력으로 작동한다. 우리도 ‘기업 위축’이 아니라 시장 신뢰를 높이는 룰(최소 기준+책임)의 정립으로 접근해야 한다”고 강조했다.
■ 글로벌 사업자, 미성년자 보호·위기 대응 ‘상향 조정’
오픈AI는 18세 미만 전용 계정을 별도로 취급하고, 민감 콘텐츠 제한·야간 사용 제한 등 과몰입 예방 장치를 강화하고 있다. 위기성 문구(자·타해 등) 감지 시 부모 알림 체계와 전문기관 연계 등을 도입·확산하는 방안을 추진하고 있다.
구글도 Gemini 전반에 자해·자살·폭력 위험 등 세이프티 카테고리를 강화하여, 청소년에게 섭식장애·자해를 미화하거나 방법을 안내하는 응답이 발생하지 않도록 차단·완화(가드레일) 정책을 고도화하고 있는 것으로 알려졌다.
두 기업 모두 연구·평가 목적의 질의라 하더라도 자·타해 고위험 응답에 대해서는 보안·통제 강도를 상향하는 등, 청소년 보호와 위기 대응의 기본선을 넓히는 흐름을 보이고 있다고 전문가들은 말하고 있다.
이에 대해 최 의원은 “글로벌 사업자들이 사실상 자율기준의 하한선을 끌어올리는 중”이라며 “우리도 시행령에 청소년 보호·과몰입 예방·위기 대응의 ‘최소 기준’을 명시해야 한다”고 강조했다.
■ 산업경쟁력 관점: 품질+윤리를 동시에 못 맞추면, 사용자는 글로벌로 이탈
최 의원은 “구글·오픈AI 등은 이미 윤리 이슈에 대한 기술적 장치를 보편화하고 있다. 국내에서도 그 기준이 사실상 적용될 것”이라며 “그렇다면 이용자는 품질과 윤리 두 마리 토끼를 잡는 챗봇을 선택한다. 국산 서비스가 기준을 따라가지 못하면 사용자 이탈은 불가피하다. 시행령으로 최소 기준을 명확히 해 업계 전체의 바닥을 올려야 공정한 경쟁이 가능하다”고 지적했다.
■ ‘정서적 의존, 그리고 비극’...“아이들을 지켜야 한다”
최 의원은 “국내외에서 생성형 AI 활용이 늘면서, 언제든 반응하고 무조건 공감하는 AI 특성 때문에 정서적 의존이 피해를 낳고 있다”며 해외 비극 사례를 언급했다. 특히 미국 플로리다의 14세 소년 세웰 세처가 특정 챗봇과의 대화에 깊이 의존하다 스스로 생을 마감했고, 유가족이 Character.AI와 Google을 상대로 소송을 제기한 사건을 들며, “이런 비극이 국내에서도 재현될 우려가 크다”고 했다.
국내 전문가들도 우리 정부가 시행령과 정부 AI 윤리원칙 고도화에 국제 흐름을 검토·반영하기 위해 AI 기본법 시행 전 국내 시장을 점검하고 이에 맞는 제도를 도입해야 한다고 목소리를 내고 있다.
도입이 필요하다는 제도로는 상시 라벨링(‘AI와 사람의 차이’ 고지), 청소년 모드 의무화 검토, 장시간 대화·심야 이용 시 휴식 안내 등 과몰입 예방 장치, 자해·자살 등 위험 키워드 탐지, 전문상담 연계 및 사고 보고의무 체계화, ‘고위험 대화형 서비스’에 대한 안전의무·사고보고의 법적 근거 명문화, 기업의 자율 개선(예: 자·타해 관련 응답 보안 강화 추세)을 제도와 연동 등이 있다.
최 의원은 “해외는 이용자 보호와 실태 조사 근거를 법과 규제로 ‘작동’시키고 있다”며 “우리는 법의 큰 틀만 있고 하위법령이 비어 있다. 시행령에 윤리·안전의무를 명확히 담아, 청소년 모드·장시간 경고·위험 키워드 탐지·사고 보고의무가 실제로 작동하게 해야 한다”고 강조했다.
그러면서 “산업진흥과 국민보호는 ‘둘 중 하나’의 선택이 아닌 ‘둘 다’인 ‘필수 과제’다. 과학적인 안전기준을 제도화해 산업진흥과 국민보호 사이에 균형추를 놓아야 지속 가능한 혁신이 가능하다”며 “AI 서비스 과몰입·과의존 등으로 단 한 명의 국민 목숨도 잃어서는 안 된다”고 강조하며 시행령과 AI 윤리원칙 고도화와 AI 전략 발표 등 정부 정책에 국민 보호 대책을 반영할 것을 장관에게 촉구했다.
