Tech Zoa
  • Sobre
  • Contato
  • Política de privacidade
No Result
View All Result
  • Página Inicial
  • Tecnologia
    • Notícias
  • Entretenimento
  • Finanças
  • Auto
  • Como fazer
  • Jogos
  • Reviews
INSCREVER-SE
  • Página Inicial
  • Tecnologia
    • Notícias
  • Entretenimento
  • Finanças
  • Auto
  • Como fazer
  • Jogos
  • Reviews
No Result
View All Result
Tech Zoa
No Result
View All Result

AI Bing está lentamente ficando louco. Microsoft introduz limites de chamadas para “acalmar”

by Juliana Silva
20 de fevereiro de 2023
in Tecnologia
Microsoft Bing
0
VIEWS
FacebookTwitter

A Microsoft confirmou que está introduzindo restrições às conversas com sua inteligência artificial no chat do Bing. Isso está intimamente relacionado à “comédia” que está acontecendo no programa há alguns dias após a introdução da ferramenta para os usuários.

Agora você terá que encerrar sua conversa após 5 turnos e não enviará mais de 50 perguntas por dia. De acordo com a equipe do Bing, isso deve ser perfeitamente aceitável para os usuários.

A Microsoft restringe o bate-papo do Bing. Isso deve ser “suficiente” de qualquer maneira

Nossos dados mostraram que a grande maioria das pessoas encontra as respostas que procura em 5 turnos, e apenas cerca de 1 % das conversas de chat tem mais de 50 mensagens.

A equipe do Bing em seu blog

Toda a ação é evitar longas sessões de bate-papo, que às vezes levavam a … respostas surpreendentes. A Microsoft descobriu que todas as conversas mais longas tornam o Chat Bing “tornou-se repetitivo” o “pode ter sido provocado a dar uma resposta que não foi necessariamente útil ou de acordo com tom e tema projetados“. Simplesmente apagar a conversa após 5 perguntas irá “o modelo não será confundido”.

O subreddit do Bing tem alguns exemplos de novos bate-papos do Bing saindo do controle.

O bate-papo aberto na pesquisa pode ser uma má ideia neste momento!

Capturado aqui como um lembrete de que houve um tempo em que um grande mecanismo de pesquisa mostrava isso em seus resultados. pic.twitter.com/LiE2HJCV2z

—Vlad (@vladquant) 13 de fevereiro de 2023

Na semana passada, alguns relatórios de respostas excepcionais de bate-papo do Bing começaram a aparecer. O que mais, “O jornal New York Times” publicou uma conversa de quase duas horas com a IA na qual a IA falou sobre o quanto ama o autor e não consegue dormir à noite. E em outros casos, ela simplesmente começou a ameaçar usuários e escrever coisas que definitivamente não deveriam estar no chat.

O Bing Chat está sendo aprimorado diariamente e os problemas estão sendo resolvidos regularmente. As restrições atuais não precisam ser vitalícias, porque a Microsoft ainda está trabalhando nas declarações e em todo o modelo de inteligência artificial. No momento, porém, a corporação está coletando opiniões e realizando pesquisas apropriadas.

A Microsoft confirmou que está introduzindo restrições às conversas com sua inteligência artificial no chat do Bing. Isso está intimamente relacionado à “comédia” que está acontecendo no programa há alguns dias após a introdução da ferramenta para os usuários.

Agora você terá que encerrar sua conversa após 5 turnos e não enviará mais de 50 perguntas por dia. De acordo com a equipe do Bing, isso deve ser perfeitamente aceitável para os usuários.

A Microsoft restringe o bate-papo do Bing. Isso deve ser “suficiente” de qualquer maneira

Nossos dados mostraram que a grande maioria das pessoas encontra as respostas que procura em 5 turnos, e apenas cerca de 1 % das conversas de chat tem mais de 50 mensagens.

A equipe do Bing em seu blog

Toda a ação é evitar longas sessões de bate-papo, que às vezes levavam a … respostas surpreendentes. A Microsoft descobriu que todas as conversas mais longas tornam o Chat Bing “tornou-se repetitivo” o “pode ter sido provocado a dar uma resposta que não foi necessariamente útil ou de acordo com tom e tema projetados“. Simplesmente apagar a conversa após 5 perguntas irá “o modelo não será confundido”.

O subreddit do Bing tem alguns exemplos de novos bate-papos do Bing saindo do controle.

O bate-papo aberto na pesquisa pode ser uma má ideia neste momento!

Capturado aqui como um lembrete de que houve um tempo em que um grande mecanismo de pesquisa mostrava isso em seus resultados. pic.twitter.com/LiE2HJCV2z

—Vlad (@vladquant) 13 de fevereiro de 2023

Na semana passada, alguns relatórios de respostas excepcionais de bate-papo do Bing começaram a aparecer. O que mais, “O jornal New York Times” publicou uma conversa de quase duas horas com a IA na qual a IA falou sobre o quanto ama o autor e não consegue dormir à noite. E em outros casos, ela simplesmente começou a ameaçar usuários e escrever coisas que definitivamente não deveriam estar no chat.

O Bing Chat está sendo aprimorado diariamente e os problemas estão sendo resolvidos regularmente. As restrições atuais não precisam ser vitalícias, porque a Microsoft ainda está trabalhando nas declarações e em todo o modelo de inteligência artificial. No momento, porém, a corporação está coletando opiniões e realizando pesquisas apropriadas.

Tags: acalmarBingchamadasestáficandointroduzlentamentelimitesloucoMicrosoftpara..
ShareTweetSend
  • Sobre
  • Contato
  • Política de privacidade

© 2022 Tech Zoa - O melhor site de notícias: tecnologia, entretenimento, auto e finanças.

No Result
View All Result
  • Página Inicial
  • Tecnologia
    • Notícias
  • Entretenimento
  • Finanças
  • Auto
  • Como fazer
  • Jogos
  • Reviews

© 2022 Tech Zoa - O melhor site de notícias: tecnologia, entretenimento, auto e finanças.

Este site usa cookies. Ao continuar a usar este site, você concorda com o uso de cookies. Visite nossa Política de Privacidade e Cookies.