OpenAI finalmente introduzido ajuste fino para seu popular modelo GPT-3.5 Turbo. O anúncio é direcionado a empresas e desenvolvedores para criar produtos supervisionados que se destaquem em tarefas específicas. De acordo com a OpenAI, uma versão aprimorada do modelo GPT-3.5 Turbo pode igualar e até superar modelos avançados como o GPT-4. Portanto, para saber mais sobre o ajuste fino personalizado no GPT-3.5 Turbo, acompanhe.
Ajuste o GPT-3.5 Turbo na base de conhecimento personalizada
O ajuste fino permite que os usuários personalizem o modelo e criem algo que se adapte às suas necessidades. Já sabemos que o GPT-3.5 Turbo é muito rápido em fazer inferências, então em termos de desempenho já era muito melhor que a concorrência. Agora, com suporte de ajuste fino, os desenvolvedores podem aproveitar essa capacidade para criar novas experiências, seja na forma de chatbots de IA, mecanismos de documentação, assistentes de IA, assistentes de codificação, etc. criar um aplicativo personalizado para o seu negócio no tom desejado.
Tenha em mente que a OpenAI mantém os modelos da série GPT-3, incluindo babbage-002
e davinci-002
para fins de ajuste fino. No entanto, o endpoint da API foi alterado e você pode aprender mais sobre o endpoint atualizado em aqui. Além disso, a principal característica do ajuste fino do GPT-3.5 Turbo é que todos os dados de treinamento são examinados usando a API de moderação da OpenAI e Sistema de moderação alimentado por GPT-4. A empresa diz que é feito para “detectar dados de treinamento inseguros que entrem em conflito com nossos padrões de segurança.“
No entanto, a OpenAI também deixou claro que nenhum material de treinamento privado será usado para treinar modelos OpenAI. Além disso, atualmente, o GPT-3.5 Turbo pode lidar apenas fichas de 4k de uma vez só. A empresa afirma que o comprimento de contexto de 16k e o suporte para chamadas de função chegarão no final deste outono.
Quanto ao preço, o ajuste fino do modelo GPT-3.5 Turbo custaria US$ 0,0080 por 1.000 tokens para treinamento; US$ 0,012 por 1.000 tokens para entrada de uso; e US$ 0,016 por 1.000 tokens para saída de uso. Claro, é um pouco mais caro do que os modelos Davinci e Babbage, mas você também obtém resultados muito melhores com a versão ajustada do GPT-3.5 Turbo.
OpenAI finalmente introduzido ajuste fino para seu popular modelo GPT-3.5 Turbo. O anúncio é direcionado a empresas e desenvolvedores para criar produtos supervisionados que se destaquem em tarefas específicas. De acordo com a OpenAI, uma versão aprimorada do modelo GPT-3.5 Turbo pode igualar e até superar modelos avançados como o GPT-4. Portanto, para saber mais sobre o ajuste fino personalizado no GPT-3.5 Turbo, acompanhe.
Ajuste o GPT-3.5 Turbo na base de conhecimento personalizada
O ajuste fino permite que os usuários personalizem o modelo e criem algo que se adapte às suas necessidades. Já sabemos que o GPT-3.5 Turbo é muito rápido em fazer inferências, então em termos de desempenho já era muito melhor que a concorrência. Agora, com suporte de ajuste fino, os desenvolvedores podem aproveitar essa capacidade para criar novas experiências, seja na forma de chatbots de IA, mecanismos de documentação, assistentes de IA, assistentes de codificação, etc. criar um aplicativo personalizado para o seu negócio no tom desejado.
Tenha em mente que a OpenAI mantém os modelos da série GPT-3, incluindo babbage-002
e davinci-002
para fins de ajuste fino. No entanto, o endpoint da API foi alterado e você pode aprender mais sobre o endpoint atualizado em aqui. Além disso, a principal característica do ajuste fino do GPT-3.5 Turbo é que todos os dados de treinamento são examinados usando a API de moderação da OpenAI e Sistema de moderação alimentado por GPT-4. A empresa diz que é feito para “detectar dados de treinamento inseguros que entrem em conflito com nossos padrões de segurança.“
No entanto, a OpenAI também deixou claro que nenhum material de treinamento privado será usado para treinar modelos OpenAI. Além disso, atualmente, o GPT-3.5 Turbo pode lidar apenas fichas de 4k de uma vez só. A empresa afirma que o comprimento de contexto de 16k e o suporte para chamadas de função chegarão no final deste outono.
Quanto ao preço, o ajuste fino do modelo GPT-3.5 Turbo custaria US$ 0,0080 por 1.000 tokens para treinamento; US$ 0,012 por 1.000 tokens para entrada de uso; e US$ 0,016 por 1.000 tokens para saída de uso. Claro, é um pouco mais caro do que os modelos Davinci e Babbage, mas você também obtém resultados muito melhores com a versão ajustada do GPT-3.5 Turbo.