Estratégia, propósitos humanos e mito da autonomia algorítmica
A influência da inteligência artificial nas decisões empresariais traz novos desafios éticos e riscos de consequências não intencionais. Em um ambiente dinâmico, a necessidade de vigilância ética se torna fundamental para garantir estratégias eficazes e responsáveis.
Em 1936, Robert K. Merton alertava que ações propositais geram mais consequências não intencionais do que planejadas. Hoje, Edward Tenner atualiza o debate, afirmando que as consequências não intencionais superam as intencionais.
No atual “mundo figital”, onde as dimensões física, digital e social se entrelaçam, a Inteligência Artificial (IA) atua como arquiteta de decisões que redefinem o controle nas organizações.
Antigamente, decisões fluíam de forma hierárquica, mas agora as narrativas de negócios escapam ao domínio centralizado. Por exemplo, algoritmos de recomendação da Netflix influenciam 75% do conteúdo consumido, alterando estratégias em tempo real.
A IA gera novos paradoxos. Um estudo com 140 executivos identificou três perfis de interação com IA:
- Céticos: resistem a decisões baseadas em IA.
- Interatores: equilibram julgamentos humanos e de máquina.
- Delegadores: transferem decisões críticas para algoritmos.
A Salesforce utiliza a IA Einstein para reduzir vieses em decisões, mas isso pode levar à perda da capacidade de questionar algoritmos.
No ambiente figital, estratégias não são planos estáticos, mas organismos em ecossistemas interdependentes. No entanto, o aumento da autonomia da IA traz riscos de “efeitos de vingança” — consequências imprevistas. Um exemplo é o uso de IA em seleção de capital humano, que pode replicar vieses históricos.
A IA não substitui a estratégia humana; a transforma. Restam duas rotas:
- Reconhecer que a IA redefine o controle, mas não elimina a necessidade de atenção moral.
- Reinventar continuamente para lidar com imprevistos.
Como afirma Tenner, no mundo figital, “tudo está sujeito à lei de Merton”: cada decisão gera um novo universo de imprevistos.