AI Act: O que significa AI de propósito geral (GPAI)?

0
637

Não conseguiu comparecer ao Transform 2022? Confira todas as sessões da cúpula em nossa biblioteca sob demanda agora! Assista aqui.


O espaço de IA está repleto de siglas – mas, sem dúvida, um dos mais discutidos no momento é o GPAI (IA de propósito geral).

Como qualquer pessoa que presta atenção ao cenário da IA ​​está bem ciente, esse termo pode eventualmente definir – e regular – sistemas na Lei de IA da União Europeia.

Mas, desde que foi proposto em uma emenda no início deste ano, muitos questionam sua especificidade (ou falta dela) e implicações.

A definição de GPAI no AI Act está “longe de ser muito robusta”, disse Alexandra Belias, gerente internacional de políticas públicas da DeepMind, durante um painel de discussão organizado esta semana pelo Centro de Inovação de Dados da Information Technology and Innovation Foundation (ITIF).

Evento

MetaBeat 2022

A MetaBeat reunirá líderes de pensamento para fornecer orientação sobre como a tecnologia metaverse transformará a maneira como todas as indústrias se comunicam e fazem negócios em 4 de outubro em San Francisco, CA.

Registre-se aqui

GPAI, na verdade, é um acrônimo que ninguém estava usando ou conhecia apenas alguns meses atrás, disse ela. Pesquisadores e a comunidade de IA ainda não podem concordar com um termo adequado porque “como você pode definir algo sem ter o escopo adequado?”

A Lei de IA e emendas: o que está na mesa

O Parlamento Europeu propôs pela primeira vez a Lei de IA em abril de 2021. Vários estados membros e comitês do Parlamento desde então pesaram e introduziram emendas (e continuamente alimentaram o debate mundial). Mais recentemente, as emendas propostas buscam definir os sistemas GPAI, classificá-los como de alto risco e regulá-los. Isso também incluiria potencialmente modelos de código aberto.

A lei atribui três categorias de risco para aplicativos e sistemas de IA: risco inaceitável (a ser banido), alto risco (exigindo regulamentação) e não regulamentado.

Um artigo proposto define um ‘sistema de IA de propósito geral’ como:

“Um sistema de IA capaz de executar funções geralmente aplicáveis, como reconhecimento de imagem/fala, geração de áudio/vídeo, detecção de padrões, resposta a perguntas, tradução, etc., e é capaz de ter vários propósitos intencionais e não intencionais.”

Outro artigo sugerido exigiria que os fornecedores de sistemas GPAI:

  • Garantir o cumprimento dos requisitos.
  • Avaliar “o uso indevido razoavelmente previsível” de seus sistemas.
  • Fornecer instruções e informações sobre a segurança desses sistemas para usuários e outras partes interessadas relevantes na cadeia de suprimentos.
  • Avalie regularmente se os sistemas de IA apresentaram novos riscos, incluindo riscos descobertos ao investigar novos casos de uso.
  • Registre seus sistemas no banco de dados da UE.

Por que um marco regulatório?

Existem três razões principais pelas quais o Parlamento Europeu procura abordar e definir os sistemas GPAI, disse Kai Zenner, chefe de gabinete e consultor de políticas digitais do deputado Axel Voss.

Primeiro, “definitivamente há um medo da tecnologia e dos diferentes desenvolvimentos”, disse Zenner.

“Há muitas possibilidades; você realmente não sabe como serão os sistemas de IA de propósito geral e todas essas tecnologias que se enquadram no termo geral da IA ​​em cinco ou 10 anos”, disse ele. “Muitas pessoas estão realmente assustadas com isso. Então parece que há uma ameaça.”

O segundo é o elemento de competição: os sistemas GPAI podem ser dominados por grandes empresas de tecnologia. A terceira é a responsabilidade ao longo da cadeia de valor. Os sistemas não são apenas complexos tecnologicamente, eles envolvem vários players do mercado – então, alguns são da opinião de que os provedores ou empresas upstream devem pelo menos ser considerados do ponto de vista da conformidade, explicou Zenner.

Mudando definições, significados

Ainda assim, muitos questionam a derivação do GPAI como um termo – e o que, em última análise, uma definição regulatória deve ou pode incluir ou excluir. Como você pode identificar os aplicativos atuais, esperados e ainda não previstos da IA? E a UE deveria estar regulamentando isso?

Essas foram algumas das questões abordadas (e, em última análise, ainda não respondidas) na discussão do Center for Data Innovation moderada pelo analista sênior Hodan Omaar.

Conforme explicado por Anthony Aguirre, vice-presidente de política e estratégia do Future of Life Institute, sem fins lucrativos, a noção coloquial de inteligência artificial geral (AGI) é um tipo de inteligência “seletiva, humana, ampla e flexível que pode fazer todos os tipos de aprender e realizar todos os tipos de tarefas”.

E, embora isso ainda não exista, eventualmente existirá, disse ele.

“Temos que falar sobre como os sistemas de hoje e de amanhã se comportam e falar sobre eles de uma maneira que capture essa característica chave”, disse Aguirre. A realidade é que eles podem realizar e aprender certas tarefas, incluindo aquelas para as quais não foram originalmente planejados, projetados ou treinados.

Com escala, tamanho, parâmetros e conjuntos de dados maiores e mais amplos, os sistemas GPAI são capazes de assumir um conjunto mais amplo de tarefas e atividades. Mas, uma das dificuldades é ver como eles podem ser usados ​​a jusante, disse Belias, da DeepMind.

Na legislação, as definições e listas de critérios devem incluir especificidade em relação à profundidade e amplitude de desempenho, número de tarefas que os sistemas podem executar e se eles podem executar tarefas nas quais não foram treinados antes, disse ela.

Mas, “isso ainda não resolveria o fato de que GPAI não é um termo perfeito”. Além disso, enfatizou Belias, é importante que reguladores e organizações identifiquem o desenvolvimento responsável, estabeleçam as melhores práticas e construam uma cultura geral de confiança e IA confiável.

O que é ‘prova do futuro’?

Irene Solaiman, diretora de políticas da plataforma de ciência de dados e comunidade Hugging Face, apontou a imprecisão das condições propostas e o fato de que elas não são “à prova de futuro”.

“Meu entendimento de ‘prova do futuro’ é que isso implica algum nível de fé”, disse ela. Seria útil, em vez disso, taxonomizar conjuntos de sistemas e casos de uso. “Do jeito que o avanço da IA ​​está indo, ‘à prova do futuro’ é muito difícil de acertar.”

Quando se trata de avaliar sistemas de IA com base em métricas ou desempenho, Solaiman disse que seu “sonho idiota” é que o desempenho de ponta um dia não significará apenas precisão técnica, mas incluirá aspectos qualitativos. Isso significa justiça, proteção da privacidade, considerações éticas e alinhamento de valores, entre outros fatores.

Além disso, ao fazer benchmarking, quais tarefas específicas devem ser consideradas?

“Nunca subestime um adolescente entediado com habilidades de codificação decentes e uma conexão com a internet para encontrar casos de uso que você pode não ter pensado”, disse Solaiman.

Ao elaborar essa legislação histórica com implicações de amplo alcance, é fundamental trabalhar com muitas disciplinas, disse ela. Isso inclui especialistas técnicos, profissionais éticos, cientistas sociais e grupos sub-representados, “para fornecer orientação específica e tecnicamente implementável sobre sistemas de propósito geral para não atrapalhar, mas para orientar a inovação”.

Estabelecimento de referências, responsabilidade

Dado que a definição de sistemas GPAI da AI Act pode envolver uma pluralidade de contextos, o benchmarking e a consideração da precisão em diferentes tarefas – e quantas tarefas devem ser consideradas – pode ser um desafio, concordaram amplamente os membros do painel.

Um modelo de precisão percentual não seria útil, disse Aguirre da Future of Life; em vez disso, o benchmarking deve ser dependente do contexto e comparado aos sistemas existentes que executam essas mesmas tarefas. Também deve haver algum tipo de limite comparável ao humano.

Andrea Miotti, chefe de política e governança de IA do grupo de pesquisa Conjectura, concordou que os sistemas GPAI, como o GPT-3, podem ter milhares ou dezenas de milhares de aplicativos downstream voltados para o cliente.

“Eu me concentraria especialmente no ângulo de suas capacidades, no fato de que eles são capazes de se adaptar a uma variedade de tarefas a jusante”, disse ele.

Ele também apontou para o dilema do código aberto: modelos abertos podem resultar em grandes coisas, mas também podem representar riscos. “Pode ser irresponsável ter tudo disponível o tempo todo”, disse Miotti.

As isenções do modelo de código aberto, se implementadas, podem gerar confusão e criar brechas. Por exemplo, um desenvolvedor pode lançar um modelo inicialmente de código fechado como código aberto para contornar a regulamentação. Em última análise, deve haver uma “distribuição equitativa de prioridade regulatória entre desenvolvedores e implantadores”, disse Miotti.

Aguirre concordou que há um equilíbrio a ser alcançado quando se trata de responsabilidade de modelo.

“É preciso muita experiência e trabalho para manter esses modelos seguros – em alguns casos, equipes enormes para realmente trazê-los à civilidade básica de seu estado inicial indomável”, disse ele.

Ele acrescentou que “não queremos um sistema em que uma parte seja responsável pela segurança, mas eles realmente não podem fazer isso”.

Um trabalho em andamento

Alguns legisladores e outras partes interessadas são da opinião de que todos que trabalham em um sistema de código aberto devem ser responsáveis ​​ou responsabilizados, apontou Zenner.

Mas, “isso realmente destruiria todo o conceito, ou toda a ideia por trás da comunidade de código aberto”, disse ele.

Em última análise, tudo isso é um bom começo, disse ele, e há uma cooperação aberta e positiva entre as partes regulatórias. Os reguladores estão “muito abertos ao feedback”, disse Zenner. Avançando, o processo também deve envolver “muitos atores diferentes e ter muitas perspectivas diferentes”, incluindo aquelas que normalmente não são procuradas pelos formuladores de políticas.

“Sabemos que ainda há muito trabalho a ser feito”, disse Zenner.

A missão do VentureBeat é ser uma praça digital para os tomadores de decisões técnicas adquirirem conhecimento sobre tecnologia empresarial transformadora e realizarem transações. Conheça nossos Briefings.

Fonte: venturebeat.com

DEIXE UMA RESPOSTA

Please enter your comment!
Please enter your name here