생성형AI 안내
AI 이용자 보호를 위한 참여형 제보 플랫폼 입니다.
AI 이용자 보호를 위한 참여형 제보 플랫폼 입니다.
① AI 위험의 조기 발견과 신속 대응
② 피해 확산 방지와 재발 예방
③ 안전한 AI 이용 문화 정착을 통해 신뢰 기반 AI 생태계를 구축하는 것을 목적으로 합니다.
본 플랫폼은 시민 제보자(위험 발견), 전문 검증단(신뢰성 확보), AI 사업자(자율 개선), 규제 기관(제도 보완)의 4주체가 유기적으로 협력하는 거버넌스 체계입니다.
구체적으로 규제 기관에는 정책 근거 자료가, 사업자에게는 자율개선 권고가, 일반 이용자에게는 예방 가이드가 제공됩니다.
이를 통해 AI 사고율 감소, 이용자 신뢰도 증가를 목표로 합니다.
궁극적으로 본 플랫폼은 사후 대응에서 사전 예방으로, 개별 제보에서 집단 지성으로,
일방향 규제에서 참여형 거버넌스로 AI 안전 관리 패러다임을 전환하고자 합니다.
| 검증된 데이터는 세 가지 경로로 활용됩니다. | |
| - | 이용자 보호 : 실제 사례 기반의 위험 예방 가이드와 안전 수칙을 제작·배포합니다. |
| - | 사업자 서비스 개선 : AI 서비스 사업자에게 제보 사례의 통계를 제공하여 자율적 서비스 개선을 유도합니다. |
| - | 정책 지원 : 규제 기관의 근거 기반 정책 수립을 지원하며 필요 시 관계부처와 기관에 데이터를 제공합니다. |