Sempre que discutimos os perigos ou os vieses da Inteligência Artificial, temos a tendência de culpar a “caixa-preta” dos algoritmos. No entanto, este artigo traz uma reflexão fundamental que considero essencial para o momento atual: a IA não possui moralidade própria; ela é um reflexo direto das nossas decisões.
Analiso como as escolhas humanas — desde a curadoria dos dados de treinamento até a definição dos objetivos de negócio — moldam o comportamento dessas máquinas. O texto reforça que a ética não é um “recurso” técnico a ser instalado, mas uma responsabilidade que nós, como criadores e usuários, precisamos assumir antes mesmo da primeira linha de código ser escrita. É um convite necessário para repensarmos o papel da governança humana em um mundo cada vez mais automatizado.
Exame
https://exame.com/bussola/por-que-a-etica-na-ia-comeca-com-escolhas-humanas-nao-com-algoritmos/


