
미니 LLM의 특성에 대해서 이야기하시지만
- HSC
- 조회 수 2601
- 2025.03.21. 00:58
LLM의 특성에 대해서 이야기하시지만
그래도 현재 애플 인텔리전스는 LLM 관점을 고려해도 이해가 안갑니다.
그래요 일단 애플 인텔리전스가 애플의 부주의함으로 RAG(검색증강생성) 구현이 안되있어 현재 기기의 시간 정보를 참조하지 못한다고 쳐도요
오늘이 몇월 이야? 라는 질문에
"질문을 이해하지 못했습니다." 라는 텍스트 답변이 애초부터 나오면 안됩니다.
최소한의 정상적인 답변이라도 나왔어야해요
예를 들면
죄송합니다. 저는 애플 정책상 사용자의 프라이버시를 존중하도록 설계되어있어 개인 정보나 개인에 대한 정보를 추측할 수 있는 정보에 대해서는 접근 및 답변하지 못합니다.
라는 지극히 애플스러운 변명문이라도 나와야합니다.
하다못해 해당 기능은 지원하지 않습니다. 라는 문구라도 나와야하구요
지금 몇월이야 라는 간단한 질문에 대한 심플하게 얻을 수있는 답은 커녕 이해할 수 없습니다. 라는 답변은
정말로 일상적이고 손쉬운 대화를 뜻하는 기본적인 인풋 콘텍스트에 대한 아웃풋 콘텍스트도 없어서 뜬구름 잡는 이해할 수 없습니다. 라는 답변이 나오는 겁니다.
이는 애플의 현 LLM이 자비스 같은 기능은 커녕 단순한 문맥도 못읽는다는걸 뜻하는거죠
이건 온디바이스 AI에 집중하니까 그런거다라는 핑계도 되면 안됩니다. 된다고 기능 열어둔건 애플이지 아무도 애플 인텔리전스를 강제하지 않았습니다.
"오늘이 몇월이야?" 라는 질문에 대한 답변으로 "질문을 이해하지 못했습니다." 로 대답하도록 학습된 AI??? 이게 현 애플의 AI 실태를 보여주는겁니다.
반대로 수행하지 못하는 기능을 AI가 판단해서 "질문을 이해하지 못했습니다." 라고 답변하는것도 이상합니다. 그러면 맨처음 언급한대로 "해당 기능을 수행하지 못합니다." , "답변할 수 없습니다." 와 같은 상식적인 대답이 나와야하는거구요
그러니까 지금 애플 AI는 "오늘이 몇월이야?"라는 기본적인 문장도 이해못하는 빡대가리라는걸 저 스샷 1장이 보여준다는 겁니다. RAG가 구현이 안되있어서 시간을 알려줄 수 없는거다 가 아니라요






말씀하시는 바는 심히 공감합니다.
약간 첨언하자면,
현재 시간을 ChatGPT, Claude에게 물어보면 대답을 못합니다.(Gemini는 됩니다)
그런데 동일 질문을 사람에게 해도 제대로 대답 못합니다.
시계를 보거나 그림자를 보거나 인터넷 시간을 보거나 등의 외부정보 '참조'가 필요하죠.
기존의 음성비서들(Siri, Alexa 등)이 시간 확인 같은 기능을 쉽게 수행했기 때문에 LLM도 당연히 할 수 있을 거라 기대하는 것은 자연스럽습니다. 소비자들은 기존 음성비서보다 모든 면에서 더 똑똑한 비서를 원하지, 일부 기능이 후퇴하는 것을 원하지 않았을 테니까요.
현재의 AI-LLM은 사람의 언어와 사고를 모방하도록 설계되었기 때문에 사람이 가진 한계의 일부를 공유합니다. LLM에게 시간 정보를 제공하기 위해서는 '시계' 같은 참조 도구나 검색할 수 있는 '컴퓨터'와의 연결이 필요합니다. (이런 기능들은 주로 Function Calling이라 불립니다)
애플이 2년 이상 지연한 것을 보면 역량 부족이 맞죠. 그러니 이런 부분도 제대로 처리가 안되어있는거겠죠.
이런 이야기를 왜 하냐면, AI를 활용하는 능력은 점점 필수 능력이 되고 있고, AI에 대한 이해가 높을수록 더 나은 질문(프롬프트)을 줄 수 있다고 생각하기에 이렇게 남겨봅니다.
어쩌면 이런 지식도 과도기의 지식일 수도 있겠으나 다음의 AI에 대한 이해를 하는데 도움은 될거라고 봅니다.
아마 진짜 llm의 답변은 아니고 만족할만한 응답이 뽑히지 않으면 자동으로 저게 나오도록 해놨겠죠.