
미니 아니 애플 AI 웃기네요 ㅋㅋㅋㅋ
- HSC
- 조회 수 2362
- 2025.03.20. 21:24
https://meeco.kr/mini/40061080
이거 보고 왔는데
몇월달인지 물어보는것도 못맞춘다고 해서 다른 유저들도 똑같이 따라했는데
전부 대답을 이해못하니까
어떤 유저가
"애플 AI의 지능은 사과의 지능과 비슷하다." 라는 댓글을 달았네요 ㅋㅋㅋㅋㅋ
그 와중에
그래도 내껀 질문에 그나마 근접하게 답하고 있어!
라고 글을 올렸네요 ㅋㅋㅋㅋ
애플 AI 심각한건 예전부터 알았는데 이런 기초적인것도 안되는건 예상못했네요




































이래서 안되고 저래서 안되고.... 물론 저도 기업의 입장도 고려를 해야한다는 주의긴한데
고작 오늘의 날짜도 못말하는걸 광고에서는 뭔 수로 구현하겠다고 한건지???
gos급 허위 아닌가요?

오늘 날짜를 말하려면 지금 시간과 위치를 알아야해요.
그런데 AI는 사전에 학습된 정보로만 대답해요.
그래서 외부에서 이 정보를 가져오게 연동이 되어있어야 해요.
날짜는 어디서 가져올 수 있다를 수동으로 적어둔게 있어야 하는데 그걸 빼먹었나봐요.(다른 AI 전문 업체에서도 이 기능이 생긴게 나름 최근이에요. 그 전까지는 대답 못했어요.)
애플이 사용자의 질문 및 응답 데이터가 쌓이면 그것 기반으로 점점 늘려나갈거에요.
사실 온디바이스를 지향하는 애플 입장에서 날짜를 아는 것은 상당히 어려운 문제일 수 있어요. 왜냐하면 현재 기기를 기준으로 가져오면 수동으로 날짜를 변경했을 때 잘못된 대답이 되겠죠.
그래서 온라인에서 가져온다고 했을 때, 오프라인이 되면 앞과 같은 문제를 경험하게 되겠죠.
위치 역시 언어 기준으로 할지, GPS 또는 IP 기준으로 할지, 판단해야하죠.
무조건 온라인만 가능한 챗지피티 같은 것과는 또다른 딜레마가 있을겁니다.
애플 인텔리전스는 솔직히 gos행보나 다름없죠. - 미코
선생님이 말씀하신대로 구성이 된다면, 키노트에서 발표한 두번째 영상의 구현도 안되야 정상이 아닌가요?
내일의 날짜는 정확하게 인지하고 지시하는 명령을 수행할 수 있는데 정작 오늘의 날짜를 모른다는게 일반인의 입장에서는 도통 이해할 수 없거든요

캘린더 쪽은 연결이 잘 되어있나봐요.
모델 관련은 아래 코멘트를 참고바래요.
https://meeco.kr/mini/40063431#comment_40063682
간략히 설명하면 애플이 쓰는 온디바이스 AI모덜이
사용자가 질문할 기능에 대해서만 잘 되게 만든 모델 같습니다.
그래서 다른 보통의 질문에 제대로 응답 못하는 것 같네요.
구조상 질문이 크면 온디바이스가 아니라 클라우드 서버에게 토스하는데 그정도급 질문이 아니라고 판단했나봅니다.



HoneyPot님이 외로운 사투중이신데, 저도 돕자면
이 미코 사이트로 예를들면
좋아요 버튼은 있는데 싫어요 버튼은 없다고 미코 개발자가 무능력하다고 말하는 것과 비슷합니다.
GPT의 P의 뜻이 '미리 학습된' 이라는 뜻인데 현재의 AI모델(LLM)은 대부분 이 방식이에요. 그래서 미리 학습하지 않은 정보는 다른 곳에서 가져와야 합니다. 그게 인터넷일수도 있고 폰 자체일수도 있구요.
그 가져올 곳을 지정해둬야하는데, 아직 날짜에 대해서는 지정을 하지 않은 것 같네요.(이건 AI의 보조적 도구일 뿐이에요)
즉, AI의 진짜 능력은 내 질문에 얼마나 적은 컴퓨팅 파워로 얼마나 정확하게 응답하냐이긴 해요.
기존 Siri는 GPT식 AI가 아니고 어디서 가져와서 응답할지 이미 지정이 되어있는거죠. 새로 만든 AI는 아직 지정이 안된거구요.








일관되지 않군요. 현재 시간을 물어도 제대로 대답을 못해주고요.
제가 하고 싶은 말은 이런류의 질문은 현재의 AI 관점에서 힘든 질문이고,
챗지피티가 이런 응답도 제대로 못한다고 해서 무능력까지는 아니라는 의미였어요.
저도 애플 AI에 대해서 상당히 부정적으로 보고 있기에 글쓴이 님의 말씀도 공감합니다.
시리가 지연된 것만 봐도 거의 '망삘'인 것 같기도 하구요.
그래도 조금 긍정적으로 본다면 이런 응답에 제대로 대답하지 못하는 것 보면 현재의 LLM을 잘 따라오고 있다는 신호로 보여지기도 합니다. 기존의 Siri는 응답해주는데, 그건 AI가 글을 이해해서 응답 했다기 보다는 그냥 단순 연결 수준의 구현으로 예상되거든요.
어쨌든 이런 장애를 넘어가며 발전해야하거든요.


이럴수가 있나 싶을정도로 처참한거 보면 AI 대한 준비를 아예 안한걸까요? ㄷㄷㄷ