🔍
인공지능기본법 제4조 제4호 기준
AI 시스템 위험도 판별
귀사의 AI 시스템이 인공지능기본법상 '고위험 인공지능'에 해당하는지 무료로 자가진단할 수 있습니다.
1 / 10
0
고위험 영역 해당
0
비해당 영역
🌍 한국 vs EU 규제 비교
🇰🇷 한국 인공지능기본법
2026.01.22 시행. 고위험 AI는 투명성·안전성 확보 의무, 영향평가 실시 필요. 위반 시 과태료 최대 1억원.
🇪🇺 EU AI Act
2024.08 발효, 고위험 규정 2027.08 적용. 적합성 평가, CE 마킹, EU DB 등록 필수. 위반 시 최대 3500만€ 또는 매출 7%.
📜 법적 근거
인공지능기본법 제4조 제4호는 '고위험 인공지능'을 정의하며, 에너지·보건의료·교통·금융·교육 등 11개 영역에서 사용되는 AI를 고위험으로 분류합니다.
⚖️ 의무사항
고위험 AI 제공자는 투명성·안전성 확보 조치, 영향평가 실시, 이용자 고지 등의 의무를 이행해야 합니다. (제16조, 제18조)
💡 유예기간
2026.01.22 법 시행 후 기존 AI 시스템에 대한 유예기간이 있으나, 신규 시스템은 즉시 적용됩니다. 조기 준비를 권장합니다.