미니 AI가 점점 경량화되고 있어서 탑재하기도 애매한 시기이기도 해요.
- 삼둥이
- 조회 수 1271
- 2025.03.09. 08:23
처음 gpt4가 1.8T(MOE) 파라미터 추정인데
gpt 4o하고 소넷 3.5가 200B 정도로 경량화한 걸로 압니다.
그러다 딥시크 r1에서 70b로 걸출한 추론모델 성능 따라잡으니 점점 AI쪽이 경량화되고 있는 추세죠.
물론 GPT 4.5처럼 파라미터 다 때려넣은 모델도 나왔는데 이건 경제성이 없어서 논외고요.
점점 파라미터는 줄고 성능은 올라가고 있어서 지금 AI 넣기 애매하죠. 조금만 기다리면 내장형 AI로 괜찮은 작업들을 시킬 수 있으니까요. 무슨 시리로 코딩할 것도 아니고. 아마 그때까지는 기다려보는 거 아닐까요.
댓글
기다릴거면 혼자 조용히 기다렸어야 하는데
이미 광고하고 제품은 다 팔았다는게 문제죠 뭐