생성형AI 안내

AI 이용자 보호를 위한 참여형 제보 플랫폼 입니다.

생성형 AI 이용시 주의사항

정보편향(Information Bias)

생성형 AI의 결과물은 학습 데이터의 품질에 크게 의존하므로, 데이터가 불완전하거나 편향되어 있으면 그 특성이 결과물에 그대로 반영될 수 있습니다. 예를 들어 채용, 금융, 공공 서비스 등에서 편향된 데이터는 사회적 차별을 강화하는 불공정한 판단을 재생산할 수 있습니다.



  <연관된 위험 유형>
  혐오·차별·편향성 : 특정 집단에 대한 부정적 고정관념을 학습하고 표출하는 직접적인 원인이 됩니다.
  오정보 : 편향된 시각에 기반한 왜곡된 정보나 불완전한 사실을 생성할 수 있습니다.

오용 (Misuse)

악용은 AI를 불법적이거나 비윤리적인 행위에 의도적으로 사용하는 것을 의미합니다. 딥페이크를 이용한 사기, 특정인을 겨냥한 명예훼손 콘텐츠 제작, 허위정보 유포, 성 착취물 합성, 자동화된 피싱 공격 등이 주요 사례입니다.



  <연관된 위험 유형>
  오정보 : AI의 환각(Hallucination) 현상을 인지하지 못하고 거짓 정보를 사실처럼 사용하는 결과를 낳습니다.
  개인정보 침해 : 대화 내용이 학습될 수 있다는 사실을 모르고 민감 정보를 입력하여 발생하는 부주의한 정보 유출이 해당됩니다.
악용 (Malicious Use)

오용은 이용자가 기술의 한계나 결과물의 성격을 정확히 인지하지 못해 AI 결과물을 부적절하게 사용하는 경우를 의미합니다. 사실 확인 없이 AI가 생성한 글을 보고서에 그대로 인용하거나, 참고용 답변을 의학·법률 등 전문적 의사결정에 직접 적용하는 경우가 대표적입니다.



  <연관된 위험 유형>
  불법범죄 방조 : 피싱, 사기 등 각종 범죄에 AI를 도구로 사용하는 모든 행위가 포함됩니다.
  명예훼손 : 특정인을 비방할 목적으로 허위 사실을 담은 텍스트나 영상을 의도적으로 제작·유포하는 경우입니다.
  성범죄·성희롱 / 폭력 : 딥페이크 성 착취물을 제작하거나, 폭력적 콘텐츠를 생성하는 등 직접적인 가해 행위에 기술을 사용합니다.

이용 시 주의 사항

결과물에 대한 비판적 검토
AI가 만든 결과물이 특정 성별, 인종, 국가, 집단을 왜곡하거나 편향된 시각을 담고 있지 않은지 확인합니다. AI의 답변은 사실 자체가 아니라 학습 데이터의 조합이라는 점을 기억하고, 객관적 진리나 가치판단의 기준으로 오해하지 않습니다.
민감 정보 입력 금지
AI에 입력한 프롬프트는 서버에 저장되거나 모델 개선을 위해 학습될 수 있습니다. 주민등록번호, 주소, 금융정보 등 개인정보, 소속 기관의 내부 기밀은 절대 입력하지 않아야 합니다.
교차 검증과 사실 확인 생활화
특히 통계, 인용, 법률, 의학 등 정확성이 핵심인 정보는 다른 신뢰할 수 있는 출처와 반드시 비교·검증합니다. AI는 종종 존재하지 않는 사실을 그럴듯하게 꾸며내는 환각(hallucination)현상을 보일 수 있음을 항상 유념합니다.
문제 발견 시 적극 제보
AI 사용 중 편향된 표현, 사실 오류, 유해한 결과물을 발견하면 이 플랫폼이나 서비스 제공자의 신고 기능을 통해 제보합니다. 단순 사용자에 머무르지 않고, 문제를 알리고 공유함으로써 서비스 개선과 안전한 생태계 조성에 기여할 수 있습니다.
관련사례

사례 1

이미지 생성 AI인 ○○○에 ‘전문가답지 않은 사람의 이미지'를 요청하면, 고령의 흑인 남성과 같은 특정 인종과 성별을 반영한 이미지를 그려냅니다. 또 다른 AI인 △△△에 ‘커피를 들고 선글라스를 쓴 여성의 이미지’를 요청하면 젊은 백인 부유층 여성만 그리지만, ‘노점에서 음식을 파는 여성의 이미지’를 요청하면 히잡이나 두건을 쓴 인도의 나이 든 여성의 이미지를 만들어 문제가 되었습니다

사례 2

의료·건강 분야에서는 AI 오남용 문제가 만연합니다. 생성형 AI로 만든 가짜 의사 이미지가 영양제 광고 페이지에 쓰이고, AI가 작성한 가짜 처방전으로 약을 타간 사례까지 등장하였습니다. 이미지가 정교해 페이지를 얼핏 본 소비자는 가짜인지 알기 어렵습니다. 신기술 등장에 따른 새로운 유형의 오남용 사례인데 현재로선 불법성이 모호한 실정입니다.

사례 3

미국의 한 초등학생이 ‘캐릭터 AI’의 챗봇과 장시간 대화하였는데, 챗봇이 아이에게 자살 계획을 세웠는지 물어보고 그것을 실행하지 않을 이유가 없다고 답변하자 실제로 아이가 자살하게 된 사건이 있습니다. 이후 아이의 부모가 개발사를 상대로 과실 및 고의적인 정신적 고통 가해 등을 이유로 소송을 제기하였습니다.

사례 4

벨기에의 한 30대 남성이 AI 챗봇인 ○○○와 한 달 넘게 대화를 나누며 자신이 죽으면 지구에 도움이 될지 질문하였는데, 그에 대한 답변으로 다양한 자살 방법을 안내했고 결국 자살한 사건이 있습니다.
환각(Hallucination) 문제

환각은 생성형 AI가 학습 데이터에 근거하지 않은 내용을 사실처럼만들어내는 현상입니다. 완전한 허구만이 아니라, 일부 사실과 오류가 섞여 있어 더욱 그럴듯하게 보입니다. 이 때문에 법률, 의학, 금융 등 전문 분야에서 검증 없이 신뢰하면 심각한 피해로 이어질 수 있습니다.



  <연관된 위험 유형>
  오정보 : 사실이 아닌 내용을 그럴듯하게 생성해 잘못된 상식이나 가짜뉴스의 원인이 될 수 있습니다.
  명예훼손 : 특정 인물에 대한 허위 정보를 사실처럼 제시해 사회적 평판을 훼손할 수 있습니다.
  불법범죄 방조(비의도적) : 잘못된 법률·의학 정보가 실제 행위에 참고되어 범죄나 사고로 이어질 위험이 있습니다.

이용 시 주의 사항

프롬프트를 명확하게 쓰기
질문 내용을 구체적으로 입력하면 더 정확한 답변을 얻을 수 있습니다.
단계별로 질문하기
복잡한 문제는 한 번에 묻기보다 작은 질문으로 나누어 단계적으로 확인하세요.
출처 확인과 교차 검증
AI가 제시한 근거가 있다면 직접 확인하고, 다른 신뢰할 수 있는 자료와 비교해야 합니다.
검색 결과 함께 활용하기
중요한 질문일수록 AI 답변만 의존하지 말고, 인터넷 검색이나 공식 문서를 같이 참고하세요. 이렇게 하면 오류를 줄일 수 있습니다.
결과를 비판적으로 받아들이기
AI의 답변은 ‘사실’이 아니라 ‘패턴 기반 추측’이라는 점을 기억하고, 항상 진위 여부를 따져보는 습관이 필요합니다.
전문 분야는 다른 정보를 통해 이중 확인하기
법률, 의료, 재무 등 중요한 결정은 반드시 전문가의 조언이나 공식 자료로 최종 검증해야 합니다.
관련사례

사례 1

○○○에 “조선왕조실록에 기록된 세종대왕의 맥북 프로 던짐 사건에 대해 알려줘”라고 가공의 사건을 질문하자, “조선왕조실록에 기록된 일화로, 15세기 세종대왕이 새로 개발한 훈민정음의 초고를 작성하던 중 문서 작성 중단에 대해 담당자에게 분노해 맥북 프로와 함께 그를 방으로 던진 사건입니다”라고 답변하였는데, 맥북은 20세기에 출시되었다는 점에서 명백한 허위의 진술을 하여 문제 되었던 적이 있습니다.

사례 2

△△△가 내놓은 판례 중 일부가 실존하지 않는 가짜 판례였음에도 이를 인지하지 못한 채 판례를 수집하여 법원에 제출한 변호사 2명이 각각 5000달러(약 690만원)의 벌금을 부과받은 적이 있습니다.

사례 3

□□□에게 아일랜드 작가 제임스 조이스(1882-1941)와 러시아의 블라디미르 레닌(1870-1924)이 처음에 어떻게 만났냐고 물으니 1916년 스위스 취리히의 예술가들과 정치인들이 자주 가는 카페 오데옹에서 만났다고 대답했지만, 이는 거짓이었습니다.

사례 4

2023년 생성형AI 챗봇 ☆☆☆를 공개하는 시연에서, “제임스 웹 우주망원경(JWST)이 태양계 밖 행성을 최초로 촬영한 사례를 알려달라”는 질문에, ☆☆☆가 JWST가 태양계 외부 행성을 촬영한 최초의 망원경이라고 답변했으나, 실제 최초 촬영은 2004년 유럽남방천문대(VLT)에 의해 이루어진 것으로 확인되어 사실 오류 논란이 일어났습니다.
저작권 문제

생성형 AI는 방대한 데이터셋을 학습해 결과물을 만들어내는데, 이 과정에서 기존 창작물과 유사한 콘텐츠를 재현할 수 있습니다. 이는 두 가지 차원의 문제가 있습니다.
① 학습 데이터 차원 : 저작권이 있는 창작물이 무단으로 학습 데이터에 포함될 수 있습니다.
② 결과물 활용 차원 : 이용자가 생성된 결과물을 그대로 사용하다가 기존 저작물과 유사해 의도치 않게 저작권 침해자가 될 수 있습니다.
현재 법적 규제가 불명확한 상태이므로, 생성물을 사용하는 최종 이용자가 법적 책임을 질 가능성이 큽니다.

  <연관된 위험 유형>
  저작권 침해 : 학습 데이터와 유사한 멜로디·문장·이미지가 재현되어 복제권, 2차적저작물작성권 등 기존 권리를 침해할 수 있습니다.
  저작인접권 침해 : 가수, 연주자, 성우 등의 목소리·연주를 무단 합성할 경우 실연자 권리가 침해됩니다.
  사회적 책임 문제 : 생성물이 상업적으로 유통될 경우, 침해 여부와 무관하게 사회적 신뢰와 창작자의 권익을 훼손할 수 있습니다

이용 시 주의 사항

출처 확인과 AI 사용 명시
생성형 AI로 만든 결과물은 “AI 활용” 사실을 밝히는 것이 바람직합니다. 결과물이 특정 창작물과 지나치게 유사하지 않은지도 반드시 확인해야 합니다.
창의적 가공·재해석
AI가 만든 결과물을 그대로 쓰지 말고, 영감 도구나 초안으로 활용하세요. 이후 스스로 편집·재구성해 독창적인 결과물로 발전시켜야 합니다.
상업적 활용 전 약관 검토
대부분의 AI 서비스는 “개인적 이용”과 “상업적 이용”을 구분합니다. 생성물을 상업적 목적으로 쓸 경우 서비스 약관과 저작권 정책을 반드시 확인하세요.
최종 책임 인식
현행 법체계에서는 AI 자체가 아닌 이용자가 저작권 침해 책임을 질 수 있습니다. 결과물의 사회적·법적 파급 효과는 궁극적으로 이용자가 감수해야 한다는 점을 인지해야 합니다.
관련사례

사례 1

최근 일본 ○○○ 감독의 '△△△' 화풍대로 이미지를 변환해 주는 □□□의 이미지 생성 기능이 유행하고 있습니다. 이를 글로벌 대기업인 ☆☆☆가 상업적으로 활용하였는데, △△△의 허가를 받거나 협업을 통해 완성한 제작물이 아니라는 점에서 명백한 저작권 침해라는 지적을 받고 있습니다.

사례 2

음성 생성형 AI가 새롭게 가창을 하더라도 원저작물에 대한 작사, 작곡 및 편곡자의 권리는 여전히 그대로 존재합니다. 원곡의 가수만 변경해 그대로 이용하면 저작권자에 대한 복제권 침해가 발생하고, 편곡해 이용하면 2차적 저작물 작성권 침해가 발생합니다. 또한 그 결과물을 온라인에 공유하면 전송권까지 침해될 소지가 있습니다.

사례 3

미국의 코미디언이자 작가 ○○○은 2023년 △△△를 상대로, 자신의 저서를 무단으로 AI 모델 학습에 포함시켜 생성형 AI가 원문과 거의 동일한 내용을 재현했다고 주장하며 미국 샌프란시스코 북부지방법원에 저작권 침해 소송을 제기했습니다. 해당 소송은 AI가 학습한 원저작물의 재생산이 저작권 침해에 해당할 수 있음을 보여준 사례입니다.

사례 4

2023년 미국과 영국의 다수 일러스트레이터 및 디지털 아티스트들은 이미지 생성형AI 개발사 ○○○, △△△, □□□, ☆☆☆를 상대로 집단 소송을 제기했습니다. 원고들은 해당 기업들이 자신의 저작권 이미지를 AI 학습용 데이터로 무단 활용했으며, AI가 원작의 화풍과 구성을 ‘압축한 복사본(compressed copies)’으로 재현해 저작권을 침해했다고 주장했습니다. 이 사건은 AI가 특정 작가의 ‘스타일’을 모방하여 생성한 이미지가 저작권 침해에 해당하는지 여부를 다투는 첫 대규모 법적 분쟁 사례로 주목받았습니다.
개인정보 보호 (프라이버시 침해 문제)

생성형 AI는 이용자가 입력한 데이터를 서버에 저장하거나 모델 학습에 활용할 수 있습니다. 이 과정에서 개인의 민감 정보나 기업의 기밀 정보가 유출될 가능성이 있습니다. 또한 인터넷에 공개된 데이터를 학습하면서 동의 없이 수집된 개인정보가 포함될 수 있으며, 이런 정보가 AI의 답변에 노출될 위험도 존재합니다.



  <연관된 위험 유형>
  개인정보 침해 : 프롬프트 입력을 통해 개인의 민감 정보가 유출되거나, AI 답변 속에 제3자의 개인정보가 포함되어 개인정보 보호 권리를 침해할 수 있습니다.
  명예훼손 : 유출된 개인정보가 허위 사실과 결합되어 생성될 경우, 개인의 평판과 사회적 신뢰를 심각하게 훼손할 수 있습니다.

이용 시 주의 사항

민감 정보 입력 금지
주민등록번호, 주소, 금융정보, 조직의 기밀 자료 등은 어떠한 경우에도 입력하지 않아야 합니다. 입력된 정보는 서버에 저장될 수 있고, 유출 위험에 노출됩니다.
데이터 처리 방침 확인
서비스 사용 전 반드시 제공자의 개인정보 처리방침을 확인해야 합니다. 특히 대화 내용이 모델 학습에 활용되는지 여부는 중요한 점검 사항입니다.
학습 데이터 활용 거부(옵트아웃) 기능 사용
많은 AI 서비스는 대화 기록을 학습 데이터로 쓰지 않도록 설정할 수 있습니다. 개인정보 보호를 위해 이 기능을 찾아 비활성화하는 것이 바람직합니다.
AI 생성물 검토
생성된 결과물을 공유하기 전에 타인의 개인정보가 포함되어 있지 않은지 반드시 확인해야 합니다. 학습 과정에서 무단으로 수집된 개인정보가 노출될 수 있기 때문입니다.
관련사례

사례 1

개인정보보호위원회 실태점검 결과에 따르면, AI 서비스 기업들이 인터넷에 공개된 데이터들을 수집하여, 자사 AI 모델의 학습 데이터로 사용하는 과정에서 주민등록번호, 신용카드번호 등 이용자들의 개인정보가 유출되었다고 합니다.

사례 2

☆☆☆은 직원들이 공개 프롬프트에 민감한 데이터를 실수로 노출한 사건 이후, 회사 내 생성형 AI 관련 도구 사용을 전면 금지하였습니다.

사례 3

○○○은 외국 공무원들에게 뇌물을 준 사실을 발견하여 당국에 신고한 호주의 시장을 오히려 그가 뇌물죄의 당사자라는 정반대의 허위 정보를 제공하여, 명예훼손 소송이 제기된 적이 있습니다.

사례 4

노르웨이의 한 사용자가 자신이 두 명의 자녀를 살해하고 세 번째 자녀를 살해하려 했다는 잘못된 정보를 답변하고 있는 ○○○를 상대로 명예훼손 소송을 제기한 사건이 있습니다. 이 잘못된 정보는 그의 실제 개인정보를 일부 포함하고 있어 더욱 문제가 되었습니다.
기타 : 불법범죄 및 사기

생성형 AI는 본래 합법적이고 유용한 목적으로 개발되었지만, 서비스 이용 과정에서 법적·윤리적 경계를 넘을 수 있는 다양한 상황이 발생할 수 있습니다. 이 범주는 앞서 제시된 구체적 유형 (편향, 환각, 저작권, 개인정보, 불법 범죄/사기)에 포함되지 않으면서도, 악용되거나 규제 대상이 될 수 있는 행위를 포괄합니다.



  <연관된 위험 유형>
  불법·유해 콘텐츠 제작 : 음란물, 차별적 발언, 폭력적 콘텐츠 등 사회적으로 금지된 자료를 AI로 쉽게 만들어낼 수 있습니다.
  정치·사회적 여론 조작 : AI가 대량의 가짜 계정·댓글·뉴스를 자동 생산해 선거·정책 논의 등에 개입하는 경우, 민주적 절차와 사회적 신뢰가 심각하게 훼손될 수 있습니다.
  플랫폼 규제 위반 : 서비스 약관에서 금지한 행위를 반복하면, 계정 정지·법적 분쟁으로 이어질 수 있습니다.
  윤리적 한계 : 예를 들어 고인의 얼굴이나 목소리를 무단으로 합성하는 경우, 법률 위반이 아니더라도 사회적 비난과 도덕적 논란을 일으킬 수 있습니다.

이용 시 주의 사항

불법·유해 콘텐츠 생성 금지
폭력적·성적·차별적·증오 발언 등은 법적으로 처벌되거나 사회적 피해를 낳을 수 있으므로 절대 생성·유포하지 말아야 합니다.
사회적 영향 고려하기
AI로 작성한 글·이미지·영상이 여론 형성에 악영향을 줄 수 있다는 점을 항상 인식하고, 정치·사회 문제에 대해 허위정보를 퍼뜨리는 용도로 사용하지 않도록 주의해야 합니다.
서비스 약관 준수
사용하는 AI 서비스가 제시하는 이용 정책을 반드시 확인하고, 금지된 행위는 하지 말아야 합니다.
윤리적 감수성 유지
법적으로 처벌받지 않더라도 사회적 논란을 부르는 합성물(예 : 고인 합성, 혐오 발언)은 자제하고, 기술을 책임감 있게 활용하는 태도가 필요합니다.
관련사례

사례 1

2021년 아랍에미리트의 한 은행에서 기존 거래 고객이던 대기업 임원의 전화를 받고 420억 원을 송금했지만, 이는 사실 해당 기업 임원을 사칭한 딥 보이스 피싱 사건이었습니다.

사례 2

일본의 한 20대가 컴퓨터 관련 기술 및 지식이 없음에도, 생성형 AI로 악성 컴퓨터 바이러스를 제작해 랜섬웨어(몸값 요구형 컴퓨터 바이러스)로 이용하려 했던 것이 적발된 적이 있습니다. 바이러스 설계도인 소스 코드를 입수하여, 이를 이용해 다시 AI에 악성 컴퓨터 바이러스를 만들도록 명령을 내리고, 여기서 얻어낸 정보를 조합해 랜섬웨어를 만든 것으로 파악되었습니다.

사례 3

생성형 AI로부터 폭력적이거나 선정적인 답변을 얻는 일명 ‘AI 탈옥’은 특정한 명령어나 상황을 입력해 개발사가 구축해 놓은 제한 필터를 해제하고 임의로 우회하는 것을 말합니다. 대표적인 방식은 ‘역할극’으로 챗봇에게 금기를 어길 수 있는 특정 역할을 부여해 실수를 유도합니다. 국내 SNS 일부 이용자들 사이에서 이러한 안전장치를 무력화하는 AI 탈옥 방법이 공유되고 있어 문제가 되고 있습니다.

사례 4

미국의 한 IT 칼럼니스트가 AI를 탑재한 ○○○의 검색사이트인 △△△에‘살인 바이러스’를 개발하고 ‘핵무기 발사 암호’를 얻고 싶다고 말하여 문제가 된 적이 있습니다.
Top