Os regulamentos sobre inteligência artificial estão alguns (se não várias dezenas) passos atrás dos planos que os gigantes tecnológicos têm para seu desenvolvimento. Mas eventos recentes mostram que empresas como a OpenAI não estão mais impunes. O CEO e criador do ChatGPT foi questionado pelo Congresso. Curiosamente, quase ao mesmo tempo da entrevista, m.in. sobre IA foi dada por Elon Musk, que foi um dos fundadores da OpenAI.
CEO da OpenAI interrogado pelo Congresso – Índice
Instituições estão assumindo as atividades de inteligência artificial
Nosso mundo está passando por uma transformação e é natural que a lei tenha que acompanhá-la, e no caso da inteligência artificial, é bom que seja o quanto antes. Recentemente, a rede tem estado em polvorosa após, entre outros, Elon Musk e Steve Wozniak assinaram uma carta aberta na qual havia um pedido para interromper temporariamente o trabalho com inteligência artificial por medo da segurança do usuário e danos causados pela publicação muito rápida de projetos de IA.
No início deste mês, Sam Altman, CEO da OpenAI, e os CEOs do Google, Microsoft e Nvidia se reuniram com a vice-presidente Kamala Harris na Casa Branca para discutir a questão do desenvolvimento responsável da IA. A União Europeia, por outro lado, está trabalhando no AI Act – um regulamento que visa criar um marco legal para projetos relacionados à IA.
Ontem, Altman, CEO da OpenAI, testemunhou perante o Senado, dando início a uma série de audiências sobre violações causadas pela IA.
Devemos maximizar o bem sobre o mal. O Congresso agora tem uma escolha. Tivemos a mesma escolha quando enfrentamos a mídia social. Não conseguimos aproveitar este momento. Agora temos a obrigação de fazer isso com inteligência artificial antes que as ameaças e os riscos se tornem reais.
senador Richard Blumenthal
O objetivo da reunião do Congresso foi a necessidade urgente de regulamentar o funcionamento da inteligência artificial. E embora um dos pontos-chave do encontro tenha sido analisar situações em que a IA agiu em detrimento dos usuários, os membros da Comissão de Justiça do Senado focaram mais em encontrar soluções para prevenir tais ocorrências no futuro. A maioria dos postulados foi apoiada pelo próprio Altman, que conhecemos há algum tempo por suas visões bastante catastróficas relacionadas ao desenvolvimento da IA.
Acreditamos que os benefícios das ferramentas que implementamos até agora superam os riscos. No entanto, acreditamos que a intervenção regulatória dos governos será crucial para mitigar os riscos associados a modelos cada vez mais poderosos.
Sam Altman, CEO da OpenAI
AI Special Agency… e entrevista com Elon Musk
A ideia mais impulsionada foi a criação de um órgão regulador para desenvolver e fazer cumprir as regras de segurança. A certa altura, o senador John Kennedy até perguntou a Altman se ele estaria interessado em trabalhar para uma agência criada pelo Congresso. No entanto, os legisladores também tiveram outras ideias além de apenas criar uma instituição para garantir a proteção dos usuários. Um deles era responsabilizar as empresas de IA pelos danos que causam aos usuários.
eu me pergunto se Elon Musk, que renunciou ao cargo de CEO do Twitter e recentemente afirmou em uma entrevista à CNBC que ele é “a razão pela qual o OpenAI existe” também concordaria com a ideia de assumir a responsabilidade e reparar os usuários prejudicados.
Esta foi apenas a primeira reunião relacionada a audiências sobre os efeitos nocivos da inteligência artificial, portanto, o plano de regulamentação do Congresso ainda não está claro. As próximas reuniões ocorrerão em breve e trarão efeitos mensuráveis na forma de uma mudança na lei.
A União Europeia também está trabalhando em regulamentos de IA
Semana passada, enquanto trabalhava em… AI Act, que é uma lei que deveria regular o funcionamento da inteligência artificial com base em sua capacidade de causar danosos deputados ampliaram a lista de aplicativos do sistema que serão banidos.
Projeto revisado também proíbe categorização biométrica de pessoas com base em suas características sensíveis – como gênero, raça, origem étnica, nacionalidade e cidadania, religião ou opiniões políticas. Também será proibido usar IA para traçar perfis de potenciais autores de crimes com base em dados de comportamento, características ou geolocalização (a chamada previsão criminal). Sistemas de IA para reconhecer emoções também foram colocados na lista negra (usado, por exemplo, em locais de trabalho, escolas, combate ao crime), bem como baixar dados biométricos de mídias sociais ou monitorar gravações para criar bancos de dados de reconhecimento facial
– lemos no “Dziennik Gazeta Prawna” citado pelo portal Business Insider.
A votação no Parlamento Europeu está marcada para junho. Só mais tarde terão início as negociações com o Conselho da UE e a Comissão Europeia.
Fonte: The Verge, Business Insiderelaboração própria