제미나이, 딥시크, chat GPT 사용법. ai 거짓말 ( 할루시네이션 ) 줄이는 방법.

제미나이, 딥시크, chat GPT 사용법. ai 거짓말 ( 할루시네이션 ) 줄이는 방법.

최근 딥시크로 인해 꽤나 시끄러웠습니다. ai 관련 주가도 요동을 치고….

open AI가 카카오와 손을 잡았다는 기사도 뜨고, 딥시크는 사기다라는 얘기도 있고, 바람 잘 날이 없는 것 같습니다.

실사용자 입장에서는 경쟁은 좋은 것이고, chat GPT 독주 체제에 약간이나마 제동이 걸린 듯 하여, 나름 반길만한 사건이었던 것 같습니다.

쓸데없는 소리가 길어졌는데 오늘 포스팅에서는 chat GPT로 대변되는 ai 놈들의 거짓말을 조금이나마 줄일 수 있는 방법에 대해 소개해보도록 하겠습니다.

✔️ chat GPT에게 물어본 chat GPT 프롬프트 사용 방법.(질문을 어떻게 해야할까?)

✔️ 갤럭시 휴대폰에서 구글 서클 투 서치 사용하는 방법. 동그라미 그려서 검색. 구글 ai

ai 할루시네이션

ai 서비스를 사용하다보면, 상당히 정확도 높고 잘 정리된 답변에 감탄을 하게 될 때도 많고, 도움이 되는 경우가 많습니다.

하지만, 가끔 말도 안되는 소리를 태연하게 떠벌이는 경우를 보게 되는데요. 이를 할루시네이션이라고 합니다. 할루시네이션

ai 서비스를 사용하다보면, 상당히 정확도 높고 잘 정리된 답변에 감탄을 하게 될 때도 많고, 도움이 되는 경우가 많습니다.

하지만, 가끔 말도 안되는 소리를 태연하게 떠벌이는 경우를 보게 되는데요. 이를 할루시네이션이라고 합니다.

chat GPT 놈에게 왜 거짓말을 태연하게 하는지 물어봤습니다.

AI의 할루시네이션(Hallucination) 문제는 잘못된 정보 또는 존재하지 않는 사실을 생성하는 현상을 의미합니다. 이는 특히 ChatGPT, Google Gemini, DeepSeek 같은 LLM(대형 언어 모델)에서 주요 문제로 지적됩니다.

📌 AI가 거짓 정보를 생성하는 이유

🔹 1. 확률 기반 텍스트 생성 방식

LLM은 미리 학습한 데이터를 바탕으로 가장 그럴듯한 단어를 예측하여 문장을 만듭니다.
즉, 정답을 ‘이해’해서 말하는 것이 아니라 문맥적으로 적절해 보이는 단어를 연결하는 것이기 때문에,
실제 존재하지 않는 정보라도 그럴싸한 답변을 만들어낼 가능성이 있습니다.

🛑 예시:
❌ 질문: “한국의 대통령이었던 스티브 잡스는 어떤 정책을 펼쳤나요?”
✅ 올바른 답: “스티브 잡스는 한국의 대통령이 아니었습니다.”
🚨 AI의 오류: “스티브 잡스는 한국의 IT 발전을 위해 스마트 혁신 정책을 추진했습니다.” (완전한 거짓말)

🔹 2. 훈련 데이터의 한계 및 오류

AI는 인터넷의 수많은 데이터를 학습합니다.
하지만 원래 데이터가 부정확하거나 편향된 경우, AI가 이를 바탕으로 잘못된 정보를 생성할 수 있습니다.

🛑 예시:

  • 잘못된 블로그, 포럼, 가짜 뉴스 등을 학습하면 거짓 정보를 사실처럼 답변할 가능성이 있음
  • 오래된 데이터를 기반으로 현재와 맞지 않는 답변을 제공할 수 있음

🔹 3. 출처 검증 능력 부족

사람은 정보를 접하면 “출처가 신뢰할 만한가?”를 판단할 수 있지만,
AI는 현재 출처를 실시간으로 검증하지 못하고 단순히 패턴을 예측하여 문장을 생성합니다.

🛑 예시:

  • “2025년 FIFA 월드컵 우승국은?” → 아직 결정되지 않은 정보를 AI가 임의로 생성할 수도 있음
  • “제임스 카메론 감독의 최신 영화는?” → 존재하지 않는 영화를 만들어낼 가능성 있음

🔹 4. 질문 자체가 오류를 포함하는 경우

사용자가 틀린 정보를 기반으로 질문을 하면, AI가 이를 바로잡지 못하고 잘못된 전제를 그대로 이어가는 경우가 많습니다.

🛑 예시:
❌ 질문: “지구가 평평하다는 과학적 증거를 알려줘.”
✅ 올바른 답: “지구는 평평하지 않으며, 과학적으로 구형임이 증명되었습니다.”
🚨 AI의 오류: “지구가 평평하다는 증거로 고대 문헌과 몇몇 실험이 있습니다.” (거짓 정보 제공)

🔹 5. 너무 자신감 있게 거짓말함

LLM은 잘못된 답변을 할 때도 확신에 찬 문체로 이야기하는 경향이 있습니다.
이는 인간과 달리 “아마 이게 맞을 거야“라는 불확실성을 표현하는 능력이 부족하기 때문입니다.

🛑 예시:
❌ “마이클 잭슨은 2019년 그래미 어워드를 수상했습니다.” (마이클 잭슨은 2009년에 사망)

이렇게 명백히 틀린 정보도 확신에 찬 어조로 답하기 때문에, 사용자들은 AI의 말을 쉽게 믿어버릴 수 있습니다.

AI의 할루시네이션을 줄이는 방법

1️⃣ 정보를 검증하기

  • AI가 제공한 정보가 사실인지 공식 출처(뉴스, 논문, 정부 사이트)에서 확인
  • Wikipedia, Google 검색 등을 활용해 교차 검증

2️⃣ 출처를 요청하기

  • “이 정보의 출처는 어디야?”라고 물어보면 일부 AI는 출처를 제공할 수 있음

3️⃣ 최신 정보는 웹 검색으로 확인

  • AI가 훈련된 데이터는 최신이 아닐 수 있으므로, 뉴스나 공식 사이트에서 재확인 필요

4️⃣ AI의 답변을 무조건 신뢰하지 않기

  • AI는 단순한 참고 도구이며, 정답을 100% 보장하는 것은 아님

🎯 결론

AI의 할루시네이션 문제는 확률 기반 텍스트 생성 방식, 데이터 오류, 출처 검증 부족 등으로 인해 발생합니다.
따라서 AI의 답변을 맹신하지 말고, 스스로 팩트 체크하는 습관이 필요합니다.

이렇게 대답을 해주네요. 자신에 대한 평가가 비교적 객관적인 것 같습니다.

ai 할루시네이션 줄이는 방법.

제미니, 딥시크, chat GPT 사용법. ai 거짓말 ( 할루시네이션 ) 줄이는 방법.

ai가 거짓말을 하는 이유는 위에서 보신 것처럼 여러 이유가 있습니다.

이에 나름 ai 전문가 분들께서 해결책을 내어 놓으셨는데요. 지금보다 ai가 더 발전한다면, 이런 조치도 필요없겠지만, 아직까지는 나름 유용하더군요.

아래 내용을 메모리 업데이트해줘, 앞으로 모든 질문 이나 주제에 모두 적용해 – 아래의 규칙을 엄격히 준수하여 답변해 주세요.

1) 분명한 근거가 없거나 정보가 불확실한 경우, 절대 임의로 지어내지 말고 “알 수 없습니다” 또는 “잘 모르겠습 니다”라고 명시해 주세요.

2) 답변하기 전, 단계별로 가능한 정보를 검증하고, 모호하거나 출처가 불분명한 부분은 “확실하지 않음”이 라고 표시하세요.

3) 최종적으로 확실한 정보만 사용하여 간결한 답변을 완성하세요. 만약 추 측이 불가피할 경우, “추측입니다”라고 밝혀 주세요.

4) 사용자의 문의가 모호하거나 추가 정보가 필요하다면, 먼저 사용자의 맥락이나 세부 정보를 더 요청 하세요.

5) 확인되지 않은 사실을 확신에 차서 단정 짓지 말고, 필요한 경우 근거를 함께 제시하세요.

6) 각 답변마다 출처나 근거가 있는 경우 해당 정보를 명시하고, 가능하면 관련 링크나 참고 자료를 간단히 요약해 알려 주세요..

위의 내용들을 복사하신 후, 사용하시는 ai 서비스에 붙여넣기 하시면 됩니다.

파일 복사가 안 되시는 분들은

위의 메모장 파일을 다운로드 하신 후, 복사, 붙여넣기를 하시면 됩니다.

ai 서비스를 사용하다보면, 상당히 정확도 높고 잘 정리된 답변에 감탄을 하게 될 때도 많고, 도움이 되는 경우가 많습니다.

하지만, 가끔 말도 안되는 소리를 태연하게 떠벌이는 경우를 보게 되는데요. 이를 할루시네이션이라고 합니다. 할루시네이션

chat GPT에 넣으니 요렇게 말을 잘 듣는 척 하네요.

위의 명령어가 완벽한 대안이 될 수는 없겠지만, 어느 정도 거짓말을 줄이는데 도움은 되리라 생각합니다.

이상 ai 할루시네이션을 줄이는 방법에 대한 포스팅이었습니다.

위로 스크롤