AI 기술

최신 AI 모델의 환각 현상은 왜 심해졌을까?

SKAI Worldwide | 스카이월드와이드 2025. 5. 8. 12:32

더 똑똑해졌는데 더 환각을 일으키는 AI, 왜 그럴까요?

안녕하세요, 여러분! 오늘은 최근 AI 세계에서 재미있는(?) 현상에 대해 이야기해볼게요. 더 똑똑해진 AI가 오히려 더 많은 '환각'을 일으키는 현상에 대해서요. , 맞아요. 더 발전했는데 더 틀린 답을 내놓는다니 이상하죠? 함께 알아봅시다!

 

AI'환각'이 뭐예요?

AI'환각'이란 AI가 존재하지 않는 정보를 마치 진짜인 것처럼 자신감 있게 말하는 현상이에요. 마치 술에 취한 친구가 없는 일을 있었다고 우기는 것처럼요!

 

ChatGPT가 그린 AI의 환각 이미지

 

대표적인 사례:

 

1. 존재하지 않는 법원 판례를 인용하기

2. 실제로 발표된 적 없는 논문을 언급하기

3. 일어나지 않은 역사적 사건을 사실처럼 설명하기

 

최신 AI가 더 많은 환각을 일으키는 이유는?

 

1. "너무 빨리 달리다 보니 신발끈이 풀렸어요

 

오픈AI의 최신 모델인 'o3'는 이전 모델보다 성능이 좋아졌지만, 환각 비율은 16%에서 33%로 두 배나 늘었어요! 'o4 미니'는 무려 48%에 달한다고 해요. 마치 더 빨리 달리려다 오히려 넘어지는 상황이 된 거죠.

 

왜 이런 일이 생길까요? AI 회사들이 지금 '안정성 추구'보다는 '혁신적 실험'에 집중하고 있기 때문이에요. 경쟁이 치열한 시장에서 "우리 AI가 더 똑똑해요!"라고 자랑하기 위해 서두르다 보니 생긴 현상인 셈이죠.

 

2. "좋은 선생님과 좋은 교과서가 부족해요

 

AI는 학습 데이터의 질과 완전성에 크게 의존해요. 마치 학생이 부실한 교과서로 공부하면 시험에서 틀린 답을 쓰는 것과 같죠!

 

예를 들어볼까요? 의사가 되려는 AI에게 암세포 사진만 보여주고 정상 조직 사진은 보여주지 않으면, AI는 나중에 정상 조직도 암으로 오판할 수 있어요. 특히 법률이나 의료 같은 전문 분야는 양질의 학습 자료가 부족해서 더 많은 환각이 발생한답니다.

 

3. "너무 복잡해서 통제하기 어려워요

 

최신 AI 모델들은 매개변수(파라미터)1조 개가 넘어요! 이게 얼마나 많은 숫자인지 감이 오시나요? 1조 원이 있다면 하루에 1억 원씩 써도 약 27년이 걸릴 정도예요. 그만큼 AI 내부는 복잡하고, 이 복잡성 때문에 AI가 왜 특정 답변을 내놓는지 개발자들도 완벽히 이해하기 어려운 상황이랍니다.

 

실제 사례: "저는 없는 판례를 인용했다가 벌금 물었어요"

미국 와이오밍주 연방법원에서의 AI 가짜 판례 사건(ChatGPT 생성 이미지)

 

20252, 미국 와이오밍주 연방법원에서는 AI가 생성한 가짜 판례를 인용한 변호사 2명에게 5000달러(720만 원)의 벌금을 부과했어요. 이들은 "의도하지 않은 실수"라고 해명했지만, 소속 로펌에서 해고되었죠.

 

미국에서는 최근 2년 동안 최소 9건의 소송에서 비슷한 일이 있었다고 해요. 법정에서 "이 판례를 참고하세요"라고 했는데, 알고 보니 그 판례가 AI가 지어낸 가짜였던 거죠. 전문가가 아니면 진짜와 가짜를 구분하기 어려울 정도로 그럴듯하게 만들어내니 정말 곤란한 상황이에요!

 

환각 문제, 어떻게 해결할 수 있을까요?

1. 웹 검색 기능으로 사실 확인하기

 

AI가 답변을 할 때 웹에서 신뢰할 만한 정보를 찾아 확인하는 방식이 주목받고 있어요. 마치 학생이 시험 보기 전에 교과서를 한 번 더 확인하는 것과 같죠!

 

GPT의 책임자 닉 털리도 "GPT가 사실에 기반한 최신 정보를 사용자에게 제공하려면 검색 기능은 필수"라고 강조했어요. 하지만 자체 검색 기술로 80%의 질문을 처리할 수 있으려면 수년이 걸릴 거라고 예상한답니다.

 

2. 지식 그래프와 온톨로지로 AI에게 '지도' 제공하기

 

AI 환각 문제를 해결할 수 있는 강력한 도구로 그래프 데이터베이스, 지식 그래프, 온톨로지가 주목받고 있어요!

이게 뭐냐고요? 쉽게 설명해 드릴게요.

 

지식 그래프는 개념들 사이의 관계를 '지도'처럼 연결해주는 구조예요. 예를 들면 "대한민국-수도-서울"처럼 정보와 정보 사이의 관계를 명확하게 정의해줍니다.

 

이런 지식 그래프를 AI에게 제공하면 환각 현상을 크게 줄일 수 있어요!

 

실제로 구글은 '지식 그래프'를 활용해 검색 결과의 정확도를 높이고 있고, 의료 분야에서는 'SNOMED CT'라는 온톨로지를 통해 의학 용어의 관계를 정의해 AI의 정확도를 높이고 있답니다.

 

그래프 데이터베이스의 장점은:

 

복잡한 관계를 명확하게 표현할 수 있어 AI정보의 맥락을 더 잘 이해할 수 있고, 새로운 지식이 추가되더라도 유연하게 확장이 가능해요

 

특히 법률, 의료 같은 전문 분야에서 정확한 정보 관계를 정의할 수 있어요

 

예를 들어, 법률 분야에서는 "판례A-근거법령-민법 제750"와 같은 관계를 지식 그래프로 구축하면 AI가 가짜 판례를 만들어낼 가능성이 크게 줄어들 거예요!

 

3. 더 좋은 학습 데이터 확보하기

 

특히 법률, 의료 같은 전문 분야에서는 양질의 데이터 확보가 중요해요. 각국의 판례, 의학 논문 등 신뢰할 수 있는 자료를 더 많이 학습시켜야 할 필요가 있죠.

 

4. AI의 사고 과정 들여다보기

 

AI가 어떻게 추론하는지 역으로 연구하는 작업이 필요해요. 마치 학생이 문제를 풀 때 과정을 보는 것처럼, AI'사고 과정'을 분석하면 왜 환각이 발생하는지 알아낼 수 있을 거예요.

 

우리는 어떻게 대처해야 할까요?

 

당분간은 AI가 제공하는 정보, 특히 전문적인 분야의 정보는 반드시 다른 출처를 통해 확인하는 습관이 필요해요. AI는 정말 유용한 도구지만, 모든 것을 알고 있는 '전지전능한 존재'는 아니니까요!

 

소설 쓰기나 아이디어 발상 같은 창의적인 작업에는 AI의 환각도 때로는 도움이 될 수 있지만, 법률 문서 작성이나 의료 정보 검색처럼 정확성이 생명인 분야에서는 AI의 답변을 100% 신뢰하지 말고 반드시 전문가의 확인을 받는 것이 좋겠죠?

 

여러분도 AI를 사용하실 때 "이게 진짜일까?" 하는 의심의 눈을 잊지 마세요! 건강한 의심은 AI 시대를 현명하게 살아가는 데 필수적인 능력이 될 테니까요.

 

지식 그래프와 온톨로지 같은 기술이 발전할수록 AI의 환각도 점점 줄어들 거예요. 그때까지 우리 모두 현명한 AI 사용자가 되어봐요!

'AI 기술' 카테고리의 다른 글

[1부] AI 전환에 온톨로지(ontology)가 필요한 이유  (0) 2025.04.29