Pesquisa indica confusão nos modelos de Inteligência Artificial. O estudo “O estado da IA responsável: 2021”, produzido pela FICO, mostra que 65% das organizações não conseguem explicar como são feitas as previsões de seus modelos de IA.
Apesar do aumento da demanda e do uso de ferramentas de inteligência artificial (IA), quase dois terços (65%) das organizações não conseguem explicar como as decisões ou previsões dos seus modelos de IA são feitas.
Realizada com base em entrevistas com 100 líderes de grandes empresas globais, incluindo companhias brasileiras, a pesquisa indicou que falta conhecimento sobre como a IA está sendo usada e se está sendo utilizada de forma responsável, já que 39% dos membros de conselho e 33% das equipes executivas afirmam ter um entendimento incompleto sobre ética da IA. Além disso, a maioria dos entrevistados (73%) afirmam que têm enfrentado dificuldades para obter suporte executivo para priorizar a ética e as práticas responsáveis de IA.
De acordo com Scott Zoldi, Chief Analytics Officer da FICO, nos últimos 15 meses, cada vez mais empresas têm investido em ferramentas de IA, mas não elevaram a importância de sua governança e da IA responsável para o nível da diretoria.
“As organizações estão cada vez mais aproveitando essa tecnologia para automatizar processos-chave, que em alguns casos estão tomando decisões que mudam a vida de seus clientes. A liderança deve compreender essa questão e monitorar os modelos utilizados, de forma a garantir que as decisões sejam justas, transparentes e responsáveis”, afirma.
Tecnologia sem monitoramento
De acordo com a pesquisa, cerca de metade (49%) dos executivos entrevistados relatou um aumento nos recursos alocados para projetos de IA nos últimos 12 meses. Por outro lado, apenas 39% afirmam que suas empresas estão investindo em governança de modelos durante o processo de desenvolvimento, enquanto 33% dizem que estão prestando pouca atenção ao monitoramento e manutenção dos modelos em produção.
Não há consenso entre os executivos sobre quais devem ser as responsabilidades de uma empresa quando se trata de IA, de acordo com o estudo. A maioria dos entrevistados (55%) concorda que os sistemas de IA para ingestão de dados devem atender aos padrões éticos básicos e que os sistemas usados para operações de backoffice também devem ser explicáveis.
Porém, quase metade dos entrevistados (43%) dizem que não têm responsabilidades além de cumprir a conformidade regulamentar para gerenciar eticamente os sistemas de IA, cujas decisões podem afetar indiretamente a vida das pessoas – como nos casos de modelos de segmentação de audiência, modelos de reconhecimento facial e sistemas de recomendação.
Apenas um quinto dos entrevistados (20%) monitora ativamente seus modelos de IA em termos de justiça e ética, enquanto somente 22% afirmam que sua organização tem um conselho para avaliar essas questões. Um em cada três (33%) tem uma equipe de validação para avaliar os modelos recém-desenvolvidos e apenas 38% dizem que têm etapas de mitigação de viés de dados incorporadas aos processos de desenvolvimento.
Em termos de visão de futuro, a grande maioria (90%) concorda que processos ineficientes para monitoramento de modelos representam uma barreira para a adoção de IA. E quase dois terços (63%) acreditam que a IA ética e a IA responsável se tornarão um elemento central da estratégia de sua organização dentro de dois anos.
Pesquisa mostra práticas responsáveis sobre IA
O levantamento recomenda algumas práticas para ajudar as organizações a traçar um caminho para a IA responsável:
- Estabelecer práticas que protejam a empresa contra ameaças à reputação do uso irresponsável de IA;
- Equilibrar a necessidade de ser responsável com a necessidade de trazer novas inovações para o mercado rapidamente;
- Garantir suporte executivo para priorizar a ética da IA e práticas responsáveis;
- Elaborar políticas preparadas para o futuro em antecipação a regulamentações mais rígidas em torno da IA;
- Disponibilizar os recursos necessários para garantir que os sistemas de IA sejam desenvolvidos e gerenciados de forma responsável.
“A comunidade empresarial está comprometida em impulsionar a transformação por meio da automação alimentada por IA. No entanto, os líderes seniores e os conselhos precisam estar cientes dos riscos associados à tecnologia e das melhores práticas para mitigá-los de forma proativa. A IA tem o poder de transformar o mundo, mas como diz o ditado popular – quanto maior o poder, maior a responsabilidade”, acrescenta Zoldi.
A pesquisa “O estado da IA responsável: 2021” foi realizada entre fevereiro e março de 2021, com base em entrevistas com 100 líderes de empresas com receitas anuais acima de US﹩ 100 milhões. Todos os entrevistados possuíam cargos C-Level, incluindo vice-presidente de dados, vice-presidente de analíticos, vice-presidente de dados e analíticos e vice-presidente de IA. Foram selecionados executivos dos EUA, América Latina, Europa, Oriente Médio, África e Ásia, sendo que todas essas regiões foram igualmente representadas.