Como gerenciar riscos à medida que a IA se espalha por toda a sua organização

0
590

Inscreva-se agora para obter seu passe virtual gratuito para o Low-Code/No-Code Summit em 9 de novembro. Ouça os executivos do Service Now, Credit Karma, Stitch Fix, Appian e muito mais. Saber mais.


À medida que a IA se espalha por toda a empresa, as organizações estão tendo dificuldade em equilibrar os benefícios e os riscos. A IA já está incorporada a uma variedade de ferramentas, desde gerenciamento de infraestrutura de TI até software DevOps e suítes de CRM, mas a maioria dessas ferramentas foi adotada sem uma estratégia de mitigação de riscos de IA.

Claro, é importante lembrar que a lista de potenciais benefícios da IA ​​é tão longa quanto os riscos, e é por isso que tantas organizações economizam nas avaliações de risco em primeiro lugar.

Muitas organizações já fizeram avanços sérios que não seriam possíveis sem a IA. Por exemplo, a IA está sendo implantada em todo o setor de saúde para tudo, desde cirurgia assistida por robô até erros reduzidos de dosagem de medicamentos e fluxos de trabalho administrativos simplificados. A GE Aviation depende da IA ​​para construir modelos digitais que prevejam melhor quando as peças irão falhar e, é claro, existem várias maneiras pelas quais a IA está sendo usada para economizar dinheiro, como fazer com que a IA de conversação receba pedidos de restaurantes drive-thru.

Esse é o lado bom da IA.

Agora, vamos dar uma olhada no ruim e feio.

O mal e o feio da IA: preconceito, questões de segurança e guerras de robôs

Os riscos da IA ​​são tão variados quanto os muitos casos de uso que seus proponentes promovem, mas três áreas provaram ser particularmente preocupantes: preconceito, segurança e guerra. Vejamos cada um desses problemas separadamente.

Tendência

Embora os departamentos de RH originalmente pensassem que a IA poderia ser usada para eliminar o viés na contratação, ocorreu o oposto. Modelos construídos com viés implícito embutido no algoritmo acabam sendo ativamente tendenciosos contra mulheres e minorias.

Por exemplo, a Amazon teve que descartar seu rastreador de currículo automatizado com inteligência artificial porque filtrava candidatas do sexo feminino. Da mesma forma, quando a Microsoft usou tweets para treinar um chatbot para interagir com os usuários do Twitter, eles criaram um monstro. Como disse uma manchete da CBS News, “Microsoft desliga o chatbot de IA depois que se transformou em um nazista”.

Esses problemas podem parecer inevitáveis ​​em retrospectiva, mas se líderes de mercado como Microsoft e Google podem cometer esses erros, sua empresa também pode. Com a Amazon, a IA havia sido treinada em currículos que vinham predominantemente de candidatos do sexo masculino. Com o chatbot da Microsoft, a única coisa positiva que você pode dizer sobre esse experimento é que pelo menos eles não usaram o 8chan para treinar a IA. Se você passar cinco minutos nadando na toxicidade do Twitter, vai entender a péssima ideia que foi usar esse conjunto de dados para o treinamento de qualquer coisa.

Problemas de segurança

Uber, Toyota, GM, Google e Tesla, entre outros, estão correndo para tornar realidade as frotas de veículos autônomos. Infelizmente, quanto mais pesquisadores experimentam carros autônomos, mais a visão totalmente autônoma se distancia.

Em 2015, a primeira morte causada por um carro autônomo ocorreu na Flórida. De acordo com a Administração Nacional de Segurança no Tráfego Rodoviário, um Tesla no modo de piloto automático não conseguiu parar para um trailer fazendo uma curva à esquerda em um cruzamento. O Tesla colidiu com a grande plataforma, ferindo fatalmente o motorista.

Este é apenas um de uma longa lista de erros cometidos por veículos autônomos. Os carros autônomos da Uber não perceberam que os pedestres podiam fazer travessias. Um Lexus movido pelo Google atropelou um ônibus municipal no Vale do Silício e, em abril, um caminhão parcialmente autônomo TruSimple desviou para uma divisão central de concreto na I-10 perto de Tucson, AZ, porque o motorista não havia reinicializado corretamente o sistema de direção autônoma. fazendo com que o caminhão siga comandos desatualizados.

De fato, os reguladores federais relatam que os carros autônomos se envolveram em quase 400 acidentes nas estradas dos EUA em menos de um ano (de 1º de julho de 2021 a 15 de maio de 2022). Seis pessoas morreram nesses 392 acidentes e cinco ficaram gravemente feridas.

Névoa da Guerra

Se as colisões de veículos autônomos não forem uma preocupação de segurança suficiente, considere o warcraft autônomo.

Drones autônomos movidos a IA estão agora tomando decisões de vida ou morte no campo de batalha, e os riscos associados a possíveis erros são complexos e controversos. De acordo com um relatório das Nações Unidas, em 2020, um quadricóptero autônomo construído na Turquia decidiu atacar combatentes líbios em retirada sem qualquer intervenção humana.

Militares de todo o mundo estão considerando uma série de aplicações para veículos autônomos, desde combate a transporte naval até voar em formação com caças pilotados. Mesmo quando não caçam ativamente o inimigo, os veículos militares autônomos ainda podem cometer vários erros mortais semelhantes aos dos carros autônomos.

7 etapas para mitigar os riscos de IA em toda a empresa

Para o negócio típico, seus riscos não serão tão assustadores quanto os drones assassinos, mas mesmo um simples erro que cause uma falha no produto ou o leve a processos judiciais pode levá-lo ao vermelho.

Para mitigar melhor os riscos à medida que a IA se espalha por toda a sua organização, considere estas 7 etapas:

Comece com os primeiros adeptos

Primeiro, veja os lugares onde a IA já se firmou. Descubra o que está funcionando e construa sobre essa base. A partir disso, você pode desenvolver um modelo básico de implantação que vários departamentos podem seguir. No entanto, lembre-se de que, quaisquer que sejam os planos de adoção de IA e os modelos de implantação que você desenvolver, precisarão conquistar a adesão de toda a organização para serem eficazes.

Localize a cabeça de praia adequada

A maioria das organizações vai querer começar pequeno com sua estratégia de IA, pilotando o plano em um departamento ou dois. O ponto lógico para começar é onde o risco já é uma das principais preocupações, como Governança, Risco e Conformidade (GRC) e Gerenciamento de Mudanças Regulamentares (RCM).

O GRC é essencial para entender as muitas ameaças ao seu negócio em um mercado hipercompetitivo, e o RCM é essencial para manter sua organização do lado certo das muitas leis que você deve seguir em várias jurisdições. Cada prática também inclui processos manuais, trabalhosos e em constante mudança.

Com o GRC, a IA pode lidar com tarefas complicadas, como iniciar o processo de definição de conceitos nebulosos como “cultura de risco”, ou pode ser usada para coletar dados publicamente disponíveis de concorrentes que ajudarão a direcionar o desenvolvimento de novos produtos de uma maneira que não viole os direitos autorais leis.

No RCM, entregar coisas como gerenciamento de mudanças regulatórias e o monitoramento do ataque diário de ações de fiscalização pode dar aos seus especialistas em conformidade até um terço de seus dias de trabalho de volta para tarefas de maior valor.

Mapeie processos com especialistas

A IA só pode seguir os processos que você consegue mapear em detalhes. Se a IA afetar uma função específica, certifique-se de que essas partes interessadas estejam envolvidas nos estágios de planejamento. Com muita frequência, os desenvolvedores avançam sem informações suficientes dos usuários finais que adotarão ou rejeitarão essas ferramentas.

Concentre-se em fluxos de trabalho e processos que impedem os especialistas

Procure processos que sejam repetitivos, manuais, propensos a erros e provavelmente tediosos para os humanos que os executam. Logística, vendas e marketing e P&D são áreas que incluem tarefas repetitivas que podem ser entregues à IA. A IA pode melhorar os resultados de negócios nessas áreas, melhorando a eficiência e reduzindo os erros.

Analise minuciosamente seus conjuntos de dados

Pesquisadores da Universidade de Cambridge estudaram recentemente 400 modelos de IA relacionados ao COVID-19 e descobriram que cada um deles tinha falhas fatais. As falhas caíram em duas categorias gerais, aquelas que usaram conjuntos de dados muito pequenos para serem válidos e aquelas com divulgação limitada de informações, o que levou a vários vieses.

Pequenos conjuntos de dados não são o único tipo de dados que pode desorganizar os modelos. Conjuntos de dados públicos podem vir de fontes inválidas. Por exemplo, a Zillow introduziu um novo recurso no ano passado chamado Zestimate, que usava a IA para fazer ofertas em dinheiro para casas em uma fração do tempo que normalmente leva. O algoritmo Zestimate acabou fazendo milhares de ofertas acima do mercado com base em dados falhos do Home Mortgage Disclosure Act, o que acabou levando a Zillow a oferecer um prêmio de um milhão de dólares para melhorar o modelo.

Escolha o modelo de IA certo

À medida que os modelos de IA evoluem, apenas um pequeno subconjunto deles é totalmente autônomo. Na maioria dos casos, no entanto, os modelos de IA se beneficiam muito com a entrada ativa de humanos (ou melhor, especialistas). A “IA supervisionada” depende de humanos para orientar o aprendizado de máquina, em vez de permitir que os algoritmos descubram tudo por conta própria.

Para a maioria dos trabalhos de conhecimento, a IA supervisionada será necessária para atingir seus objetivos. Para trabalhos complicados e especializados, no entanto, a IA supervisionada ainda não leva você tão longe quanto a maioria das organizações gostaria de ir. Para subir de nível e desbloquear o verdadeiro valor de seus dados, a IA precisa não apenas de supervisão, mas também de informações de especialistas.

O modelo Expert-in-the-Loop (EITL) pode ser usado para resolver grandes problemas ou aqueles que exigem julgamento humano especializado. Por exemplo, a EITL AI tem sido usada para descobrir novos polímeros, melhorar a segurança das aeronaves e até mesmo para ajudar a polícia a planejar como lidar com veículos autônomos.

Comece pequeno, mas sonhe grande

Certifique-se de testar minuciosamente e, em seguida, continuar a verificar os processos orientados por IA, mas depois de resolver os problemas, agora você tem um plano para estender a IA em toda a sua organização com base em um modelo que você já testou e comprovou em áreas específicas, como GRC e RCM.

Kayvan Alikhani é cofundador e diretor de produtos da Compliance.ai. Kayvan liderou anteriormente a equipe de Estratégia de Identidade na RSA. e foi cofundador e CEO da PassBan (adquirida pela RSA).

Tomadores de decisão de dados

Bem-vindo à comunidade VentureBeat!

DataDecisionMakers é onde especialistas, incluindo o pessoal técnico que trabalha com dados, podem compartilhar insights e inovações relacionadas a dados.

Se você quiser ler sobre ideias de ponta e informações atualizadas, melhores práticas e o futuro dos dados e da tecnologia de dados, junte-se a nós no DataDecisionMakers.

Você pode até considerar contribuir com um artigo seu!

Leia mais sobre DataDecisionMakers

Fonte: venturebeat.com

DEIXE UMA RESPOSTA

Please enter your comment!
Please enter your name here