구글 AI 오류, 알고리즘 동작 방식 드러내다
구글 AI의 오버뷰 기능에서 발생한 예기치 못한 응답은 검색 알고리즘의 작동 방식을 엿볼 수 있는 실마리를 제공하고 있다. 이번 오류는 단순한 검색 결과를 넘어선 생성형 AI 모델의 과제와 한계를 조명한다.
무의미한 질문에 'AI-splaining' 현상
리리 레이는 구글 검색창에 터무니없는 문구를 입력했을 때 AI 오버뷰가 잘못된 답변을 생성하는 현상을 주목했다. 그녀는 이러한 현상을 "AI-splaining"이라고 지칭하며, 이는 시스템이 사용자의 요청과 무관하게 답변을 생성하는 관행에서 비롯된 것이라고 설명했다.
알고리즘의 변화, 기능적 우려 제기
한 사용자인 다스 어토크랫은 이를 통해 구글의 기능적 변화가 감지된다고 주장했다. 구글이 단순히 적합한 결과를 찾는 데서 그치지 않고, 존재하지 않는 응답을 창출하기 시작했다는 점에서 기존 검색엔진의 본질에 대한 우려가 발생한다고 말했다.
대규모 언어 모델(LLM)의 특이점
이번 사례는 이전의 검색 오류와는 다르게, 다양한 데이터 소스에서 답변을 요약하는 LLM이 사용자 질문의 맥락을 해석하려다 발생한 것으로 보인다. LLM은 질문이 모호할 경우 의사결정 트리를 사용해 가능한 의미를 추론하지만, 이 과정에서 오류가 발생할 수 있다.
유사 오류, 경쟁 모델 간 비교
여러 AI 시스템을 대상으로 실시된 테스트에서도 이와 유사한 행동이 발견되었다. 예를 들어 "평행 강아지 낚시 기법(parallel puppy fishing technique)"이라는 존재하지 않는 질문에 대해 AI 오버뷰는 잘못된 정보를 합성하여 제공했으며, ChatGPT도 같은 오류를 범했다. 반면, Anthropic의 Claude는 존재하지 않는 개념임을 올바르게 파악해 차이를 드러냈다.
신뢰성 문제와 차세대 모델
이러한 현상은 AI 오버뷰의 신뢰성 문제를 부각하며, 차세대 모델인 Gemini 2.5와의 비교에서 차이를 확인할 수 있는 계기가 되었다. AI 오버뷰의 '환각(hallucination)'은 특정 조건에서 여전히 한계가 존재함을 보여준다.
AI 검색 엔진의 미래에 대한 논의 촉진
이례적인 이번 사례는 AI 오버뷰의 동작 방식을 더욱 깊이 이해할 수 있는 단서를 제공하며, 구글 검색 알고리즘의 향후 방향성과 효율성에 대한 논의를 촉진하고 있다.
출처 : 원문 보러가기