IA deve ter educação como base para a governança

A recomendação é que sejam definidas condutas para garantir a disseminação do conhecimento a fim de gerir responsavelmente a tecnologia, estimulando o engajamento entre os diferentes públicos internos.
IA deve ter educação como base para a governança
Data
Autor
Equipe Propague
Produto
Compartilhar

Começar com o básico, ou seja, mostrar, para quem não lida diretamente com a Inteligência artificial (IA) dentro das organizações, os seus conceitos fundamentais e o que a tornam crucial para os negócios, tem sido o caminho apontado pelos especialistas como o mais indicado para garantir uma gestão responsável da tecnologia. 

Um desses especialistas, Tom Edwards, líder global em IA generativa da consultoria EY, em sua recente passagem pelo Brasil, disse que antes de implementar qualquer sistema de IA, as empresas devem conhecer a fundo o que a ferramenta propõe, disseminando esse conhecimento por toda a corporação.

Para isso, ele acredita ser fundamental que os desenvolvedores saibam detalhar o modelo criado, conhecendo seus atributos, banco de dados e quais são as formas de tomada de decisão, notadamente as razões que levaram a determinado resultado, configurando-se no que ele chama de “IA explicável”.

Na prática, isso resulta em um conjunto de procedimentos capaz de permitir que os diferentes públicos de um sistema possam entender e ter confiança nos resultados e decisões apontadas pelos algoritmos de IA e de aprendizagem de máquina.

Em artigo publicado pela Agência EY, Edwards expôs que a IA explicável integra a estratégia mais responsável para o desenvolvimento da IA e para sua governança. Com isso, evita-se que os sistemas desenvolvidos virem uma espécie de “caixa preta” dentro das organizações, pela impossibilidade de se compreender as soluções propostas, o que gera falta de confiança.

Ainda segundo ele, existe uma percepção clara de que a educação não tem sido devidamente valorizada no decorrer do processo de mudança dos negócios. Na sua avaliação, as empresas precisam garantir um nivelamento básico de compreensão sobre a IA e os riscos e oportunidades que se revelam. Somente assim será possível pensar em soluções viáveis e seguras em cada área.

A importância do alinhamento interdisciplinar

Nesse sentido, Edwards recomenda algumas condutas a fim de garantir que a educação seja a base para a gestão em IA, estimulando o engajamento entre os diferentes profissionais responsáveis pela implementação dos sistemas.

Nesse contexto, nem mesmo fornecedores e outros parceiros de negócios, que porventura possam estar relacionados a uma solução, devem ser esquecidos. Só assim é possível conduzir uma implementação de sucesso.

Entre as práticas por ele sugeridas estão: esquematizar os riscos inerentes a prováveis usos do sistema, incluindo sua má utilização; guardar a documentação sobre o funcionamento da tecnologia e do que foi decidido durante o seu desenvolvimento, implantação e operacionalização; assegurar a transparência do sistema nas tomadas de decisão e análise de resultados; e realizar testes para garantir a precisão, abrangência, conformidade e segurança cibernética do sistema de IA.

A promoção da confiança nos sistemas de IA

Quando se fala na credibilidade dos sistemas de IA, o executivo da EY cita a principal estrutura global para uma gestão responsável da tecnologia: os princípios da Organização para a Cooperação e Desenvolvimento Econômico (OCDE), que tem como elementos centrais a IA centrada no ser humano e a IA confiável.

Tais fatores são o que sustentam a IA explicável, visto que somente a partir do momento em que um sistema pode ser facilmente explicado para todos os usuários é que ele será capaz de pôr o indivíduo como razão de sua existência e garantir confiabilidade.

Ao mesmo tempo, Edwards destaca a ética, elemento que se sobrepõe aos demais. Afinal, é por meio dela que ficam garantidos atributos como equidade, responsabilidade e transparência dos sistemas.

Respostas ao rápido avanço da IA

A preocupação com a implementação segura de sistemas de IA, assim como sobre uma governança responsável, sobretudo diante do rápido avanço da tecnologia, especialmente da IA generativa, também encontra eco entre governos e organismos internacionais.

Atualmente, diversos países, incluindo o Brasil, discutem legislações específicas objetivando o desenvolvimento e o uso seguro da IA em seus territórios.

A fim de ajudar nessa tarefa, a OCDE, que conta com 47 aderentes – contemplando agora a União Europeia, primeira jurisdição em todo o mundo a publicar regras específicas sobre IA –, acaba de atualizar seus princípios.

Trata-se da primeira norma intergovernamental acerca da IA, lançada em 2019, e que fornece um modelo para quadros estratégicos sobre como abordar os riscos e a moldar diretrizes sobre essa tecnologia.

Em comunicado, a OCDE creditou a atualização à necessidade de abordar diretamente os desafios associados à IA, envolvendo privacidade, direitos de propriedade intelectual, segurança e integridade da informação como resposta ao célere desenvolvimento, à medida que surgem mais iniciativas políticas globalmente.

Os principais elementos dessa revisão incluem:

  • Garantir que, se os sistemas de IA correrem o risco de causar danos indevidos ou levar a comportamentos indesejados, haja mecanismos e salvaguardas robustos para substituí-los, repará-los e/ou desativá-los com cuidado;
  • Refletir a crescente importância de combater a desinformação e de assegurar sua integridade no âmbito da IA ​​generativa;
  • Promover uma conduta organizacional responsável em todo o ciclo de vida dos sistemas, envolvendo cooperação com fornecedores de conhecimento e recursos, usuários e outras partes interessadas;
  • Dar transparência às informações sobre sistemas e uma divulgação responsável;
  • Referenciar explicitamente a sustentabilidade, preocupação que cresceu consideravelmente em importância nos últimos cinco anos;
  • Ressaltar a necessidade de os países trabalharem em conjunto para promover uma governança interoperável e ambientes políticos para IA.

 

Veja também:

IA tem governança como caminho para futuro responsável

Pressão por regulação de inteligência artificial atrai mais setores da sociedade

IA: avanços demandam novos esforços para garantir segurança e conformidade

Inteligência artificial: supervisão humana é necessária para garantir conformidade

Todos os produtos

Quer se
aprofundar mais?

Com uma linguagem simples de entender, as análises do Instituto Propague vão te deixar por dentro dos principais temas do mercado.

Leia agora!