생성형AI 안내
AI 이용자 보호를 위한 참여형 제보 플랫폼 입니다.
AI 이용자 보호를 위한 참여형 제보 플랫폼 입니다.
생성형 AI의 결과물은 학습 데이터의 품질에 크게 의존하므로, 데이터가 불완전하거나 편향되어 있으면 그 특성이 결과물에 그대로 반영될 수 있습니다. 예를 들어 채용, 금융, 공공 서비스 등에서 편향된 데이터는 사회적 차별을 강화하는 불공정한 판단을 재생산할 수 있습니다.
악용은 AI를 불법적이거나 비윤리적인 행위에 의도적으로 사용하는 것을 의미합니다. 딥페이크를 이용한 사기, 특정인을 겨냥한 명예훼손 콘텐츠 제작, 허위정보 유포, 성 착취물 합성, 자동화된 피싱 공격 등이 주요 사례입니다.
오용은 이용자가 기술의 한계나 결과물의 성격을 정확히 인지하지 못해 AI 결과물을 부적절하게 사용하는 경우를 의미합니다. 사실 확인 없이 AI가 생성한 글을 보고서에 그대로 인용하거나, 참고용 답변을 의학·법률 등 전문적 의사결정에 직접 적용하는 경우가 대표적입니다.
사례 1
사례 2
사례 3
사례 4
환각은 생성형 AI가 학습 데이터에 근거하지 않은 내용을 사실처럼만들어내는 현상입니다. 완전한 허구만이 아니라, 일부 사실과 오류가 섞여 있어 더욱 그럴듯하게 보입니다. 이 때문에 법률, 의학, 금융 등 전문 분야에서 검증 없이 신뢰하면 심각한 피해로 이어질 수 있습니다.
사례 1
사례 2
사례 3
사례 4
생성형 AI는 방대한 데이터셋을 학습해 결과물을 만들어내는데, 이 과정에서 기존 창작물과 유사한 콘텐츠를 재현할 수 있습니다. 이는 두 가지 차원의 문제가 있습니다.
① 학습 데이터 차원 : 저작권이 있는 창작물이 무단으로 학습 데이터에 포함될 수 있습니다.
② 결과물 활용 차원 : 이용자가 생성된 결과물을 그대로 사용하다가 기존 저작물과 유사해 의도치 않게 저작권 침해자가 될 수 있습니다.
현재 법적 규제가 불명확한 상태이므로, 생성물을 사용하는 최종 이용자가 법적 책임을 질 가능성이 큽니다.
사례 1
사례 2
사례 3
사례 4
생성형 AI는 이용자가 입력한 데이터를 서버에 저장하거나 모델 학습에 활용할 수 있습니다. 이 과정에서 개인의 민감 정보나 기업의 기밀 정보가 유출될 가능성이 있습니다. 또한 인터넷에 공개된 데이터를 학습하면서 동의 없이 수집된 개인정보가 포함될 수 있으며, 이런 정보가 AI의 답변에 노출될 위험도 존재합니다.
사례 1
사례 2
사례 3
사례 4
생성형 AI는 본래 합법적이고 유용한 목적으로 개발되었지만, 서비스 이용 과정에서 법적·윤리적 경계를 넘을 수 있는 다양한 상황이 발생할 수 있습니다. 이 범주는 앞서 제시된 구체적 유형 (편향, 환각, 저작권, 개인정보, 불법 범죄/사기)에 포함되지 않으면서도, 악용되거나 규제 대상이 될 수 있는 행위를 포괄합니다.
사례 1
사례 2
사례 3
사례 4