wired.com ha 2 dias MD Sandbox

OpenAI Apoia Projeto de Lei que Limitaria a Responsabilidade por Morte em Massa ou Desastres Financeiros Causados por IA

Regulação Tecnologia IA OpenAI

Conteudo

TLDR;

O projeto de lei (SB 3444) buscaria isentar desenvolvedores de IA de responsabilidade por "danos críticos" em massa — como morte ou ferimentos graves de 100 ou mais pessoas ou pelo menos US$1 bilhão em danos materiais — causados por seus modelos. A proteção alcançaria "modelos de fronteira", definidos como aqueles treinados com mais de US$100 milhões em custos computacionais, o que provavelmente inclui grandes laboratórios como OpenAI, Google, xAI, Anthropic e Meta. A imunidade só valeria se o laboratório não tiver causado o incidente intencionalmente ou por negligência grave e tiver publicado relatórios de segurança, de cibersegurança e de transparência; caso contrário, ainda pode haver responsabilização.

Resumo

OpenAI está apoiando o projeto de lei de Illinois SB 3444, que protegeria desenvolvedores de "modelos de fronteira" — definidos como aqueles treinados com mais de US$100 milhões em custos computacionais, como OpenAI, Google, Anthropic, Meta e xAI — de responsabilidade por “danos críticos” massivos (por exemplo, morte ou ferimentos graves de 100+ pessoas ou mais de US$1 bilhão em prejuízo), desde que não tenham agido intencionalmente ou com negligência grave e tenham publicado relatórios de segurança, transparência e proteção. O texto abrange ameaças como uso do AI para criar armas químicas, biológicas, radiológicas ou nucleares e condutas autônomas do modelo que, se praticadas por humanos, seriam crimes. O apoio marca uma mudança na estratégia legislativa da OpenAI, que agora defende abordagens que, segundo porta-vozes, evitam um mosaico de regras estaduais e favorecem normas nacionais harmonizadas; executivos também pedem um marco federal. Críticos consideram a proposta excessiva e de pouca probabilidade de aprovação em um Estado com tradição regulatória como Illinois, onde o público se mostra majoritariamente contra isenções de responsabilidade. Enquanto isso, litígios por danos individuais causados por chatbots seguem em curso e o Congresso não avançou em legislação federal consistente, levando estados como Califórnia e Nova Iorque a impor exigências de relatórios de segurança por conta própria.