Home News Aqui está o que isso significa para as empresas de tecnologia americanas
News

Aqui está o que isso significa para as empresas de tecnologia americanas

Share
Share

A lei histórica de inteligência artificial da União Europeia entra oficialmente em vigor na quinta-feira – e significa grandes mudanças para os gigantes da tecnologia dos EUA.

A Lei de IA é uma regra histórica projetada para regular como as empresas desenvolvem, usam e aplicam inteligência artificial. recebeu aprovação final dos Estados-Membros da UE, dos legisladores e da Comissão Europeia – órgão executivo da UE – em maio.

A CNBC tem tudo o que você precisa saber sobre a Lei de IA e como ela impactará as maiores empresas de tecnologia do mundo.

O que é a Lei da Inteligência Artificial?

A Lei da Inteligência Artificial (IA) faz parte da legislação da UE que rege a inteligência artificial. Proposta pela primeira vez pela Comissão Europeia em 2020, a lei visa abordar os impactos negativos da IA.

Terá como alvo principal as grandes empresas de tecnologia americanas, que são atualmente as principais criadoras e desenvolvedoras dos mais avançados sistemas de inteligência artificial.

No entanto, muitas outras empresas, mesmo as não tecnológicas, também estarão sujeitas às regras.

O regulamento estabelece um quadro regulamentar abrangente e harmonizado para a IA em toda a UE, adotando uma abordagem baseada no risco para regular esta tecnologia.

Tanguy Van Overstraten, chefe de tecnologia, mídia e tecnologia do escritório de advocacia Linklaters em Bruxelas, disse que a Lei de Inteligência Artificial da UE foi “a primeira desse tipo no mundo”.

“É provável que isto tenha impacto em muitas empresas, especialmente aquelas que desenvolvem sistemas de IA, bem como aquelas que os implementam ou simplesmente os utilizam em determinadas circunstâncias.”

A legislação adota uma abordagem baseada no risco para regular a IA, o que significa que diferentes aplicações da tecnologia são regulamentadas de forma diferente, dependendo do nível de risco que representam para a sociedade.

Por exemplo, as aplicações de IA consideradas de “alto risco” estarão sujeitas a obrigações estritas nos termos da Lei de IA. Essas obrigações incluem sistemas adequados de avaliação e mitigação de riscos, conjuntos de dados de formação de alta qualidade para minimizar o risco de parcialidade, registo de rotina de atividades e comunicação obrigatória de documentação detalhada de modelos às autoridades para avaliação da conformidade.

O CEO da Appian diz que a revolução da IA ​​​​está “refreando um pouco pelo medo”

Exemplos de sistemas de IA de alto risco incluem veículos autônomos, dispositivos médicos, sistemas de decisão de crédito, pontuação educacional e sistemas remotos de identificação biométrica.

A lei também impõe uma proibição geral de qualquer utilização de IA que seja considerada “inaceitável” em termos de risco.

As aplicações de IA com riscos inaceitáveis ​​incluem sistemas de “pontuação social” que classificam os cidadãos com base na agregação e análise dos seus dados, no policiamento preditivo e na utilização de tecnologia de reconhecimento de emoções nos locais de trabalho ou nas escolas.

O que isso significa para as empresas de tecnologia dos EUA?

Gigantes americanos como Microsoft, Google, Amazonas, MaçãE meta estão colaborando ativamente e investindo bilhões de dólares em empresas que acreditam que podem se tornar líderes em inteligência artificial em meio ao entusiasmo global em torno da tecnologia.

Plataformas de nuvem como Microsoft Azure, Amazon Web Services e Google Cloud também desempenham um papel fundamental no apoio ao desenvolvimento de IA, dada a enorme infraestrutura computacional necessária para treinar e executar modelos de IA.

Neste sentido, as grandes empresas tecnológicas estarão, sem dúvida, entre as mais vulneráveis ​​às novas regras.

“A Lei da Inteligência Artificial tem implicações que vão muito além da UE. Aplica-se a qualquer organização com atividade ou influência na UE, o que significa que a Lei de IA provavelmente se aplicará a você, não importa onde você esteja”, disse Charlie Thompson, vice-presidente sênior para a região EMEA e LATAM da empresa de software empresarial Appian. em uma entrevista por e-mail com a CNBC.

“Isto levará a um maior escrutínio dos gigantes da tecnologia no que diz respeito às suas atividades no mercado da UE e à utilização dos dados dos cidadãos da UE”, acrescentou Thompson.

A Meta já limitou a disponibilidade do seu modelo de IA na Europa devido a preocupações regulamentares, embora a mudança não tenha sido necessariamente impulsionada pela legislação da UE sobre IA.

No início deste mês, o proprietário do Facebook disse que não disponibilizaria seus modelos LLaMa na UE, citando a incerteza sobre se ele cumpre o Regulamento Geral de Proteção de Dados (GDPR) da UE.

CEO da Capgemini: Não existe solução mágica para se beneficiar da IA

A empresa foi anteriormente ordenada a parar de treinar os seus modelos com base em publicações no Facebook e Instagram na UE devido a preocupações de que poderia violar o GDPR.

Como a IA generativa é tratada?

A IA generativa é identificada na Lei de IA da UE como um exemplo de inteligência artificial de “uso geral”.

Este termo refere-se a ferramentas projetadas para executar uma ampla gama de tarefas no mesmo nível de um ser humano, se não melhor.

Os modelos de IA de uso geral incluem, mas não estão limitados a, GPT da OpenAI, Gemini do Google e Claude da Anthropic.

Para estes sistemas, a Lei da Inteligência Artificial impõe requisitos rigorosos, tais como o cumprimento da lei de direitos de autor da UE, a divulgação de informações sobre como os modelos são treinados, bem como a realização de testes de rotina e a garantia de proteções adequadas de segurança cibernética.

No entanto, nem todos os modelos de IA são tratados igualmente. Os criadores de IA afirmaram que a UE precisa de garantir que os modelos de código aberto, que são gratuitos para o público e podem ser utilizados para criar aplicações especializadas de IA, não sejam regulamentados de forma demasiado estrita.

Exemplos de modelos de código aberto são LLaMa da Meta, Stability AI’s Stable Diffusion e Mistral’s 7B.

A UE estabelece algumas exceções para modelos de IA generativa de código aberto.

No entanto, para se qualificarem para uma isenção das regras, os fornecedores de software de código aberto devem disponibilizar publicamente os seus parâmetros, incluindo pesos, arquitetura e utilização do modelo, e permitir “acesso, utilização, modificação e distribuição do modelo”.

De acordo com a Lei de IA, os modelos de código aberto que apresentam riscos “sistêmicos” não se qualificarão para a isenção.

A lacuna entre empresas de IA de código aberto e fechadas é menor do que pensávamos: Hugging Face

“É preciso haver uma avaliação cuidadosa de quando as regras entram em vigor e do papel das partes interessadas”, disse ele (quem disse isso?).

O que acontece se uma empresa quebrar as regras?

Empresas que violam a Lei de Inteligência Artificial da UE pode ser multado de 35 milhões de euros (41 milhões de dólares) ou 7% da sua receita anual global – o que for maior – para 7,5 milhões ou 1,5% da sua receita anual global.

O valor das multas dependerá da infração e do porte da empresa autuada.

Isto é mais elevado do que as multas possíveis ao abrigo do GDPR, a estrita lei europeia de privacidade digital. As empresas enfrentam multas de até 20 milhões de euros ou 4% do volume de negócios global anual por violações do GDPR.

A supervisão de todos os modelos de IA abrangidos pela lei, incluindo sistemas de IA de uso geral, será realizada pela Autoridade Europeia de IA, um organismo regulador criado pela Comissão em fevereiro de 2024.

Jamil Jiwa, chefe global de gestão de ativos da empresa fintech Linedata, disse à CNBC que a UE “entende que precisa impor multas significativas às empresas infratoras se quiserem que a regulamentação tenha efeito”.

Martin Sorrell sobre o futuro da publicidade na era da inteligência artificial

Jiwa acrescentou que, tal como o GDPR demonstrou como a UE pode “usar a sua influência regulatória para impulsionar as melhores práticas de privacidade de dados” a nível global, com a aprovação da Lei de Inteligência Artificial o bloco está a tentar fazê-lo novamente, mas para a inteligência artificial .

No entanto, é importante notar que, embora a Lei de IA finalmente tenha entrado em vigor, a maioria das disposições da lei não entrará em vigor até 2026.

As restrições aos sistemas de uso geral não entrarão em vigor antes de 12 meses após a entrada em vigor da Lei de Inteligência Artificial.

Os sistemas de IA generativa atualmente disponíveis para uso comercial, como o ChatGPT da OpenAI e o Gemini do Google, também recebem um “período de transição” de 36 meses para colocar seus sistemas em conformidade.

Source link

Share

Leave a comment

Leave a Reply

Your email address will not be published. Required fields are marked *

Related Articles

Moscou foi atacada por dezenas de drones ucranianos – prefeito – RT Rússia e a ex-União Soviética

Pelo menos 32 UVA em direção à capital foram destruídos por sistemas...

Dezenas de milhares de pessoas marcham em Espanha para protestar contra inundações devastadoras

Dezenas de milhares de pessoas marcharam por cidades de Espanha no sábado...

Musk apoia a intervenção de Trump no Federal Reserve após sua vitória eleitoral

O CEO da Tesla, Elon Musk (à direita), junta-se ao ex-presidente dos...

Zelensky tem “medo de que a guerra acabe” – Primeiro Ministro de um país da UE – RT World News

Segundo Robert Fico, o líder ucraniano teme que o fluxo de dinheiro...

Copyright 2024 livetvable.com. All rights reserved powered by livetvable.com