Wednesdays@DEI: Talks, 28-02-2024

Autor e vínculos: Paulo de Sousa Mendes, Centro de Investigação de Direito Privado (CIDP) da FDUL

Bio: Paulo Manuel Mello de Sousa Mendes licenciou-se em Direito pela Faculdade de Direito da Universidade de Lisboa (FDUL) em 1981, onde também obteve o grau de LLM em 1987. Obteve o doutoramento em Ciências Jurídicas em 2006, e o título de Agregado (Agregado) em 2019 pela Universidade de Lisboa (UL). Este título (em latim: venia legendi) é a qualificação mais elevada emitida através do processo de exame universitário e continua a ser um conceito central das carreiras académicas em muitos países de tradição romano-germânica, sem o qual ninguém pode tornar-se professor catedrático. Desde 2020 é Professor Catedrático (Catedrático) na FDUL, onde leciona Direito Penal, Processo Penal, Direito Regulatório, Direito da Prova, Direito Penal Comparado, Direito Penal Internacional, e Inteligência Artificial & Direito. Exerceu vários cargos na FDUL, entre outros, como Vice-Presidente do Instituto de Cooperação Jurídica (2007-2009), como Vice-Presidente do Gabinete de Erasmus e Relações Internacionais (2007-2009), e como membro do Conselho de Administração. Conselho Científico (2015-2024), incluindo a sua Comissão Permanente (2015-2016). Foi Coordenador da Comissão Científica de Pós-Graduação de 2018 a 2022. É Coordenador Científico, juntamente com o Professor José Azevedo Pereira, do Mestrado em Direito & Gestão, criado conjuntamente pela FDUL e pela Lisbon School of Economics & Management (ISEG), cuja terceira edição teve início em setembro de 2023. É também Coordenador Científico, juntamente com o Professor João Marques Martins, do LLM em Inteligência Artificial na Prática Jurídica e sua Regulação na FDUL, em parceria com a Fundação Champalimaud, Oracle , Outsystems, entre outros, cujas candidaturas estão abertas para 2024-2025.

Título: Regulação da Inteligência Artificial
Abstract: A Inteligência Artificial (IA) é a tecnologia do nosso tempo, apesar de já ter sido criada em meados do século passado. Na última década, a IA ganhou extraordinária tração e tornou-se omnipresente. Todos os países apostam no desenvolvimento da IA, procurando assumir a liderança. Em 2016, o Governo Federal dos Estados Unidos da América (EUA) publicou o primeiro Plano Estratégico Nacional de Pesquisa e Desenvolvimento de Inteligência Artificial (atualização de 2023), reconhecendo a tremenda promessa da IA e a necessidade de avanço contínuo. A Administração Biden-Harris está empenhada em promover sistemas de IA éticos, fiáveis e seguros, e que sirvam o bem público, conforme declarado no Blueprint for a AI Bill of Rights e no AI Risk Management Framework. Ao longo da última década, a China também se tornou um importante propulsor e utilizador de IA. Os decisores políticos chineses conceberam vários regulamentos para garantir o que consideram ser a utilização adequada da IA, mesmo que a sua perspetiva da IA ética não coincida com a visão dos países ocidentais sobre os direitos humanos. Na Estratégia Nacional de IA, o Governo do Reino Unido (RU) comprometeu-se a desenvolver uma posição nacional pró-inovação ao nível da governação e regulação da IA e delineou a sua posição num documento político em 2022. Este white paper estabelece as propostas do Governo para a implementação de um quadro equilibrado, à prova do futuro e favorável à inovação para regular a IA. O Regulamento da IA da União Europeia (UE) representa a primeira lei abrangente sobre IA do mundo, que aborda os riscos da IA e posiciona a Europa para desempenhar um papel de liderança a nível mundial. O previsto Regulamento da UE sobre IA apresenta regras para aumentar a transparência e minimizar os riscos para a segurança e os direitos fundamentais antes que os sistemas de IA possam ser utilizados na UE. Para evitar excessos de regulação, o Regulamento da UE sobre IA centra-se nos chamados casos de utilização de IA de alto risco. Os sistemas de alto risco incluem todos os sistemas de IA destinados a utilização na tomada de decisões judiciais. Todos os sistemas remotos de identificação biométrica também são considerados de alto risco e sujeitos a requisitos rigorosos. A sua utilização ao vivo em espaços acessíveis ao público para fins de prevenção e repressão de crimes é proibida em princípio. Os sistemas de IA de alto risco devem ser avaliados quanto à conformidade com estes requisitos antes de serem colocados no mercado ou em serviço. A apresentação destina-se a comparar os modelos de regulação da IA atualmente em discussão.

Tópicos: