미니 Apple Intelligence는 허상입니다.
- noop
- 조회 수 3148
- 2024.08.13. 13:12
사람들이 Apple Intelligence에 대해 많은 오해를 하고 있는 것 같아요.
이 오해를 풀기 위해서는 현재의 AI와 과거의 AI의 차이를 이해하는 것이 중요해요.
과거의 인공지능은 거대한 문제를 해결하는 데 한계가 있었어요. 그래서 복잡한 문제를 사람이 이해할 수 있는 여러 단계로 나누고, 각 단계를 해결할 수 있는 좁은 인공지능(Narrow AI)이나 규칙 기반의 프로그래밍을 사용한 후, 이를 파이프라인으로 연결해 문제를 해결했어요.
예를 들어 Siri, Bixby, Google Assistant 등을 보면:
1. 사람이 말한 내용을 텍스트로 전사(Transcribe)
2. 형태소 분석 등을 통해 키워드를 추출
3. 각 앱의 API 등을 통해 키워드를 전달하고 기능을 호출
4. (Optional) 3.의 반환 값을 적당한 규칙에 따라 TTS로 송출
이런 방식으로 작동했어요.
https://developer.apple.com/videos/play/wwdc2024/10133/?time=1155
이번 Apple Intelligence의 경우, 이 중 2번과 3번 단계를 LLM(Large Language Model)이 ChatGPT처럼 앞의 내용까지 함께 고려해 대화 맥락을 유지하도록 만들겠다는 거예요. 쉽게 말해, LLM이 도구를 이용하는 방식이죠. (ChatGPT의 GPTs나 perplexity.ai도 이와 유사해요.)
결국, 기본적으로 3rd party 개발자들이 각 기능을 하나하나 손봐야 하는 구조는 변하지 않아요. 이는 이미 현재의 AI에서도 가능해요. [Bixby 개발자 포털] https://bixbydevelopers.com/ 에서도 비슷한 작업을 볼 수 있어요.
많은 사람들이 지난해 말부터 Apple이 공개한 선행 연구들이 이번 Apple Intelligence에 포함될 것이라고 기대하는 것 같아요. 예를 들어, “~에게 문자 보내줘”라고 하면 화면을 분석해 스스로 찾아가는 AI 같은 것들이요. 이러한 기술을 AI Agent라고 부르며, OpenAI에서는 이를 Level 2 AI라고도 해요.
어느 정도 가능하지만, 현실적으로는 가장 최신 모델인 GPT-4o조차 이러한 수준에 도달하지 못했어요. [GPT-4o 시스템 카드] https://openai.com/index/gpt-4o-system-card/ 를 참고해 보세요. 빠르면 수개월에서 길게는 2026~2027년 사이에 이 수준에 도달할 것으로 예상되지만, On-Device까지 구현되려면 시간이 좀 더 걸릴 수 있어요.
https://metr.github.io/autonomy-evals-guide/gpt-4o-report/
지금의 상황은 과거 Bixby 1.0 시절 삼성의 개발자들이 하나하나 수작업으로 기능을 만들어냈던 것과 크게 다르지 않아요. 단지 Apple이 다 못하니 3rd party에 넘기는거죠. 이 영상들도 참고해 보세요.
https://www.youtube.com/watch?v=ybDjWMN6o20
https://youtube.com/shorts/PDRDSmJ7Ees?si=CqNfzAo6259AJhPP
참고로 이미 적어도 GPT-4 이전부터 OpenAI를 비롯한 다수의 연구진들이 LLM기반 Agent AI를 연구하고있어요.
Apple Intelligence는 WWDC에서 보여준 것 만큼 매끄러운 동작이 가능할려면 꽤 시간이 걸릴 것으로 보이고...Galaxy AI와 비슷한 느낌의 성능이나 구성을 지니게 될까요? 물론 Apple의 UX 구성 능력은 엄청난 수준이니 같은 기능이더라도 사람들이 우와 할 수 있게 만들 수 있겠지만요.
SNS 등에서 해외 유저들의 반응을 보면 Galaxy AI가 이겼다는 둥, Apple Intelligence는 아직 칼을 갈고있는 것일 뿐 완전체가 공개되면 모든 회사를 압살할 것이라는 둥 여러 이야기가 오가고 있던데요. 과연 완전체가 공개된 이후의 결말은 어떻게 될지 참 궁금해집니다 🤔
Apple Intelligence 의 Siri에서 데이터를 가져오는 API는 App Intents API이고
App Intents | Apple Developer Documentation
기존엔 Spotlight, 위젯 등에 사용되던 건데요?
원래부터 사용자 컨텍스트를 앱단에서 시스템으로 가져오기 쉽게 차근차근 만들어 두기 시작한걸 본격적으로 쓰기 시작한 것 같네요 저는.
-
Interactions with Siri, including those that use the personal context awareness and action capabilities of Apple Intelligence.
-
Spotlight suggestions and search.
-
Actions and automations in the Shortcuts app.
-
Hardware interactions that initiate app actions, like the Action button and squeeze gestures on Apple Pencil.
-
Focus to allow people to reduce distractions.
애플 공홈에 적힌 용도인데 스팟라이트, 단축어 액션 등이네요
오해를 하고 말고를 떠나서 애플이 풀버전을 풀어줘야 뭐 오해라도 하는데 지금은 껍데기만 덜렁 보여준 상황이니 오만가지 설왕설래가 나올수 밖에 없죠.