Inteligência Artificial: O que é?

A Inteligência Artificial (IA) é a área da ciência da comunicação que estuda a simulação de comportamento humanos em máquinas e, por conseguinte, visa desenvolver sistemas e tecnologias capazes de realizar tarefas que normalmente exigiriam inteligência humana. Esta consiste num avanço tecnológico que permite que uma máquina reproduza bem como simule inteligência e competências semelhantes às humanas, nomeadamente, o raciocínio, a criatividade, a aprendizagem, o planeamento, entre outros.

Inteligência Artificial. Fotografia: Shutthiphong Chandaeng / Getty Images

Na atualidade, a presença de Inteligência Artificial já se verifica em diversos ramos da sociedade e da atividade do Homem, como são os casos do entretenimento, através da personalização dos conteúdos, do comércio online e da sua previsão dos gostos dos consumidores e também em eletrodomésticos e outros equipamentos eletrónicos com programação inteligente. De forma complementar, a presença de sistemas de IA também se acentua em mecanismos de perceção visual, reconhecimento de voz ou comunicação entre vários idiomas.

Este termo, embora tenha ganho maior notoriedade nos últimos tempos devido a importantes progressos conseguidos, tem origem há mais de 50 anos e a sua autoria é apontada ao John McCarthy, um cientista da computação americano e considerado um dos “pais da Inteligência Artificial”.

John McCarthy, em 1955, enquanto professor de matemática em Dartmouth, apresentou pela primeira vez o termo “Inteligência Artificial” como área do conhecimento e descreveu-a como “a ciência e a engenharia capazes de dar inteligência às máquinas“. Recorde-se que este facto histórico, reconhecido nos dias de hoje como evento fulcral para o desenvolvimento da IA, ocorreu aquando da proposta de realização da Conferência de Verão de Dartmouth para a Inteligência Artificial.

A Inteligência Artificial é cada vez mais utilizada pela sociedade e apresenta diversos benefícios para o melhoramento dos cuidados de saúde, na segurança e limpeza de transportes, na eficiência das produções dos diversos setores e, também, na obtenção de energia mais barata e sustentável.

União Europeia: da proposta apresentada em 2021 até ao princípio de acordo alcançado em 2023

A primeira proposta de lei sobre a Inteligência Artificial remonta a abril de 2021. Contudo, apenas 2 anos depois é que há uma “luz verde” na União Europeia (UE) cerca deste tema, tal como refere a Comissão Europeia numa publicação na rede social X, congratulando-se, desta forma, de ser o primeiro continente a estabelecer regras evidentes para a utilização adequada de IA.

 

O acordo entre colegisladores da UE, Conselho Europeu e Parlamento Europeu foi anunciado no dia 9 de dezembro de 2023 e tem como principal foco o equilíbrio entre a segurança, inovação e defesa dos direitos fundamentais dos cidadãos.

Este regulamento global onde constam as primeiras regras do mundo para a Inteligência Artificial, ainda que provisório, surge da urgência em regulamentar um domínio tão vasto e potencialmente disruptivo como a IA e assim garantir melhores condições da sua aplicação. Não obstante da sua plena aplicação estar prevista apenas para o final de 2026, este protocolo, além de simbolizar o ultrapassar de um impasse político, é a base para uma nova era de inovação tecnológica orientada por princípios éticos e jurídicos sólidos.

O texto formalmente aprovado pela União Europeia resulta de um esforço conjunto entre todos os envolvidos e é fruto de longas extensas negociações, que se intensificaram nos últimos meses. A explicação para o referido demorado período de negociações prende-se, por um lado, ao facto do processo ser extremamente técnico e requerer um profundo conhecimento da tecnologia IA, como também, das suas implicações para os direitos fundamentais e, por outro lado, devido às significativas preocupações sociais e políticas levantadas por este tema e que exigiam que estas fossem devidamente ponderadas e equilibradas.

O regulamento centra-se na identificação dos riscos, aborda utilizações específicas e potencialmente perigosas da IA e estabelece proibições e requisitos rigorosos para certas aplicações. Entre as proibições, destacam-se os sistemas que constituem uma ameaça para os direitos dos cidadãos e para o controlo governamental, incluindo certos sistemas biométricos de reconhecimento e categorização.

Ursula von der Leyen, presidente da Comissão Europeia, reagiu com agrado ao acordo político alcançado, realçando, na sua mensagem, a salvaguarda da segurança e dos direitos fundamentais

UE AI Act é uma inovação global (…) Uma estrutura jurídica única para o desenvolvimento da IA em que podemos confiar (…) E pela segurança e pelos direitos fundamentais das pessoas e das empresas (…) Um compromisso que assumimos nas nossas orientações políticas – e cumprimos (…) Congratulo-me com o acordo politico de hoje – Ursula von der Leyen

A importância e relevância deste acordo como regulador e controlador dos sistemas de IA nos princípios da segurança, transparência e respeito pelos direitos humanos e democracia, estabelece a União Europeia como líder na definição de um quadro ético e jurídico para o desenvolvimento e utilização da Inteligência Artificial.

UE AI Act – os detalhes da primeira lei de Inteligência Artificial

A lei da União Europeia sobre IA aprovada em dezembro de 2023 é um conjunto de requisitos adicionais à legislação europeia em matéria de direitos humanos fundamentais já existente. Esses requisitos são, exemplificando, a supervisão humana e/ou a obrigatoriedade de apresentar uma informação clara sobre as capacidades e limitações dos sistemas de Inteligência Artificial.

O UE AI Act estabelece diferentes regras consoante o nível de risco da inteligência artificial, ou seja, as obrigações implícitas aos fornecedores e utilizadores, que no setor público como no setor privado, varia em função o nível de risco de IA, que pode ser classificado como mínimo, limitado, elevado ou inaceitável.

Os sistemas de IA classificados como risco inaceitável são referidos como aqueles “sistemas ou aplicações que manipulam o comportamento humano para contornar o livre arbítrio” e carecem de avaliação antes de serem colocados no mercado e, adiante, durante todo o ciclo de vida por serem considerados uma ameaça. Os brinquedos ativados por voz que incentivam comportamentos perigosos nas crianças são um exemplo de Inteligência Artificial de risco inaceitável.

A IA de risco elevado é aquela que afeta negativamente a segurança ou os direitos fundamentais dos utilizadores e será dividida em 2 categorias: os sistemas de IA utilizados em produtos abrangidos pela legislação da UE em matéria de segurança dos produtos, como é o caso dos sistemas presentes na aviação, nos automóveis e nos dispositivos médicos; em contrapartida, outros sistemas de IA enquadrados em áreas específicas (serviços de educação, acesso e usufruto de serviços privados, por exemplo) necessitam de registo numa base dados da UE.

Por sua vez, os sistemas que cumprem requisitos mínimos de transparência e permitem aos utilizadores tomar decisões informadas são agrupados na IA de risco limitado. Estes sistemas alertam ao utilizador para o facto de estarem a interagir com IA e permitem que este decida se quer, ou não, continuar a utilizá-los.

A vigilância dos sistemas de IA são a prioridade deste regulamento. Nesse sentido, algumas das regras particulares que constam do documento são a delineação de condições rigorosas para a utilização da IA em contexto de vigilância policial, a introdução de regras que garantam a transparência e gestão de riscos nos modelos de IA generativa, como o CHATGPT, e a necessidade de avaliações de risco, relatórios de incidentes e salvaguardas em matéria de cibersegurança para os modelos de maior risco.

Em suma, o acordo para a primeira lei no mundo acerca de Inteligência Artificial pretende defender a segurança, transparência, rastreamento e respeito pelo ambiente dos sistemas de IA mediante a designação de regras específicas para os sistemas que representem riscos para a saúde, segurança e, além do referido, a proibição de sistemas de categorização biométrica, scrapping não direcionado de base de dados para o reconhecimento facial, reconhecimento de emoções em locais de trabalho e instituições de ensino e sistemas de pontuação social e que manipulem o comportamento humano.

O desrespeito pelas normas estabelecidas prevê a aplicação de coimas até aos 35 milhões de euros ou 7% da faturação global até 7,5 milhões de euros, dependendo da natureza da infração.

O processo legislativo ainda não está concluído, mas o acordo provisório alcançado é um passo importante para regulamentar um domínio vasto e complexo como a Inteligência Artificial. O objetivo é a transformação da atual abordagem voluntária para a esfera regulatória e, neste perspectiva, futuramente, prevê-se que o texto seja formalmente aceite e acordado pelo Parlamento Europeu para ser uma Lei da União Europeia.

Reações ao acordo anunciado pela UE

Os líderes europeus mostraram-se muito otimistas acerca do acordo provisório alcançado, realçando a proteção da segurança e dos direitos fundamentais, assim como o respeito pelos valores europeus. Thierry Breton, o comissário europeu do Mercado Internacional, falou num “momento histórico“, numa publicação na rede social X.

 

A presidência espanhola do Conselho da União Europeia e Roberta Metsola, presidente do Parlamento Europeu, foram alguns dos nomes que, tal como, Thierry Breton, também aplaudiram publicamente este importante avanço para a Inteligência Artificial na UE.

Em contrapartida, as organizações e empresas do setor privado consideram que o regulamento sobre a primeira lei de IA é muito restritivo e prejudicial à competitividade e inovação devido, principalmente, à imposição de burocracia excessiva. Ademais, essas entidades consideram que o acordo não aborda adequadamente os desafios e as oportunidades da IA generativa e, por isso, é um desincentivo ao investimento e à pesquisa em IA na Europa.

 

Artigo editado por Inês Silva