머스크가 발표한 데로 X LLM 모델 Grok-1 이 오픈되었습니다. Mixture-of-Experts 모델로 314B 매개변수를 가지고 있다고 하네요. (GPT3.5 의 2배 수준) Apache 2.0 license. 로 자유롭게 이용가능합니다. 모델은 2023.11월 발표 한 모델이라고. 당시 발표 https://x.ai/blog/grok 에 의하면 성능은 GPT3.5 수준으로 보입니다.
We are releasing the weights and architecture of our 314 billion parameter Mixture-of-Experts model Grok-1.
크기가 큰데 성능은 오히려 떨어지니.. 어쩌나
머스크가 발표한 데로 X LLM 모델 Grok-1 이 오픈되었습니다. Mixture-of-Experts 모델로 314B 매개변수를 가지고 있다고 하네요. (GPT3.5 의 2배 수준) Apache 2.0 license. 로 자유롭게 이용가능합니다. 모델은 2023.11월 발표 한 모델이라고. 당시 발표 https://x.ai/blog/grok 에 의하면 성능은 GPT3.5 수준으로 보입니다.
Open Release of Grok-1
We are releasing the weights and architecture of our 314 billion parameter Mixture-of-Experts model Grok-1.
크기가 큰데 성능은 오히려 떨어지니.. 어쩌나