[소식] MS, 소형 AI 모델 「Phi-3-mini」를 발표--성능은 「GPT-3.5」에 필적 (번역)

  • ninemmpo
    (9미리포)
  • ninemmpo's Avatar 이 글의 작성자
  • Offline
  • Junior
  • Junior
더보기
24 Apr 2024 15:04 #32104 작성자: ninemmpo
ninemmpo 님의 글: [소식] MS, 소형 AI 모델 「Phi-3-mini」를 발표--성능은 「GPT-3.5」에 필적 (번역)
원문 : news.yahoo.co.jp/articles/13f2965a01cf10...43d1ba833f813bcc5bc0

< 번역기사 >

테크놀로지 기업 각사는 보다 대규모로 보다 고성능인 인공지능(AI) 모델의 구축으로 힘차게 하고 있다. 하지만 소형 모델도 여전히 큰 가치를 가지고 있으며, Microsoft는 그 컨셉에 크게 베팅하려고 하고 있다. MS는 미국 시간 4월 23일, 향후 몇 개월 이내에 3개의 소형 AI 모델을 출시하는 것을 밝히고, 최초의 모델로서 「Phi-3-mini」를 릴리스했다. Phi-3-mini는 훈련에 사용된 파라미터(AI 모델이 더 나은 결과를 생성하는 데 사용하는 변수) 수가 38억으로, 계획된 3가지 모델 중 가장 규모가 작다. . 이 회사는 트레이닝 파라미터 수가 70억인 'Phi-3-small'과 140억인 'Phi-3-medium'도 발표했지만, 그 릴리스 시기는 명언하지 않았다. 파라미터 수를 살펴보면, OpenAI의 "GPT-4 Turbo"에 대해서는, 1조 이상의 파라미터가 트레이닝에 사용되고 있는 것이 복수의 보고로 시사되고 있다. 또 Meta는 2024년 내에 출시하는 'Llama 3' 모델의 최종판에 대해 700억의 파라미터로 트레이닝할 예정이라고 18일에 말했다. 모델의 트레이닝에 사용되는 파라미터가 늘어날수록, 유저가 원하는 결과를 생성할 수 있는 능력이 높아지지만, 이것은 보상이 수반된다. AI 모델의 파라미터가 늘어나면 결과 생성에 필요한 전력과 에너지도 늘어납니다. 쿼리가 복잡한 경우나 의료 분야 등에서 미션 크리티컬한 AI를 구현하는 경우는 파라미터가 많은 편이 적합할지도 모르지만, 반드시 파라미터 수가 많으면 좋다는 것은 아니다. 실제로 마이크로소프트가 발표한 듯한 소형 모델은 스마트폰 등 저전력 디바이스에 적합하다. Microsoft는 모바일 디바이스 등 탑재되는 AI의 성능이 칩셋의 능력과 배터리 수명에 의해 제약되는 디바이스로 'Phi-3' 시리즈의 AI를 사용할 가능성이 있다. Microsoft는 Phi-3-mini에 대해서, 소형이면서 뛰어난 퍼포먼스를 발휘한다고 주장하고 있다. 이 회사가 The Verge의 취재에 대해 말한 바에 따르면, Phi-3-mini는 이 회사가 사용한 파라미터의 10배 이상의 수로 트레이닝한 모델에 필적하는 퍼포먼스를 실현하고 있으며, “GPT-4 GPT-4 Turbo에는 미치지 않지만, GPT-3.5와 같은 정도의 능력이 있다고 한다. 또, 이 레벨의 퍼포먼스를 달성하기 위해, 아동서 등을 포함한 「커리큘럼」으로 Phi-3-mini를 트레이닝했다고, Microsoft는 The Verge에 대해 말하고 있다. 또한 교재의 부족을 보완하기 위해 보다 대규모 모델을 사용하여 AI로 만든 아동서를 사용했다고 한다. Microsoft는 현재 클라우드 플랫폼 'Azure', 제휴처 Hugging Face 사이트 및 AI 모델 서비스를 다루는 Olama 사이트에서 Phi-3-mini를 무료 공개하고 있다. 이 기사는 아사히 인터랙티브가 해외 레드 벤처스 출신의 기사를 일본용으로 편집한 것입니다.Microsoft 는 그 컨셉에 크게 베팅하려고 하고 있다. MS는 미국 시간 4월 23일, 향후 몇 개월 이내에 3개의 소형 AI 모델을 출시하는 것을 밝히고, 최초의 모델로서 「Phi-3-mini」를 릴리스했다. Phi-3-mini는 훈련에 사용된 파라미터(AI 모델이 더 나은 결과를 생성하는 데 사용하는 변수) 수가 38억으로, 계획된 3가지 모델 중 가장 규모가 작다. . 이 회사는 트레이닝 파라미터 수가 70억인 'Phi-3-small'과 140억인 'Phi-3-medium'도 발표했지만, 그 릴리스 시기는 명언하지 않았다. 파라미터 수를 살펴보면 OpenAI의 " GPT -4 Turbo"에 대해서는 1조 이상의 파라미터가 트레이닝에 사용되고 있는 것이 복수의 보고에서 시사되고 있다. 또 Meta 는 2024년 내에 출시하는 'Llama 3' 모델의 최종판에 대해 700억의 파라미터로 트레이닝할 예정이라고 18일에 말했다. 모델의 트레이닝에 사용되는 파라미터가 늘어날수록, 유저가 원하는 결과를 생성할 수 있는 능력이 높아지지만, 이것은 보상이 수반된다. AI 모델의 파라미터가 늘어나면 결과 생성에 필요한 전력과 에너지도 늘어납니다. 쿼리가 복잡한 경우나 의료 분야 등에서 미션 크리티컬한 AI를 구현하는 경우는 파라미터가 많은 편이 적합할지도 모르지만, 반드시 파라미터 수가 많으면 좋다는 것은 아니다. 실제로 마이크로소프트가 발표한 듯한 소형 모델은 스마트폰 등 저전력 디바이스에 적합하다. Microsoft는 모바일 디바이스 등 탑재되는 AI의 성능이 칩셋의 능력과 배터리 수명에 의해 제약되는 디바이스로 'Phi-3' 시리즈의 AI를 사용할 가능성이 있다. Microsoft는 Phi-3-mini에 대해서, 소형이면서 뛰어난 퍼포먼스를 발휘한다고 주장하고 있다. 이 회사가 The Verge의 취재에 대해 말한 바에 따르면, Phi-3-mini는 이 회사가 사용한 파라미터의 10배 이상의 수로 트레이닝한 모델에 필적하는 퍼포먼스를 실현하고 있으며, “GPT-4 GPT-4 Turbo에는 미치지 않지만, GPT-3.5와 같은 정도의 능력이 있다고 한다. 또, 이 레벨의 퍼포먼스를 달성하기 위해, 아동서 등을 포함한 「커리큘럼」으로 Phi-3-mini를 트레이닝했다고, Microsoft는 The Verge에 대해 말하고 있다. 또한 교재의 부족을 보완하기 위해 보다 대규모 모델을 사용하여 AI로 만든 아동서를 사용했다고 한다. Microsoft는 현재 클라우드 플랫폼 'Azure', 제휴처 Hugging Face 사이트 및 AI 모델 서비스를 다루는 Olama 사이트에서 Phi-3-mini를 무료 공개하고 있다. 이 기사는 아사히 인터랙티브가 해외 레드 벤처스 출신의 기사를 일본용으로 편집한 것입니다.
Time to create page: 0.051 seconds
Powered by Kunena Forum