Grandes líderes do mercado da tecnologia, como Elon Musk e os três cofundadores da DeepMind, empresa subsidiária da Google, Shane Legg, Mustafa Suleyman e Demis Hassabis, assinaram um documento prometendo que não desenvolverão mais armas letais autônomas.
A ação faz parte de uma medida global e não-oficial de executivos em oposição ao uso da inteligência artificial para selecionar alvos sem a intervenção humana, representando ameaças morais e pragmáticas.
O compromisso foi publicado nesta quarta-feira (18) na Conferência Internacional Conjunta sobre Inteligência Artificial (IJCAI), em Estocolmo, sob organização do Instituto Futuro da Vida, que tem como missão mitigar o risco existencial da humanidade.
Também assinaram a promessa o fundador do Skype, Jaan Tallin, e outros pesquisadores de inteligência artificial, como Stuart Russel, Yoshua Bengio e Jürgen Schmidhuber.
Confira a carta de promessa na íntegra:
"A inteligência artificial (IA) está preparada para desempenhar um papel crescente nos sistemas militares. Há uma oportunidade urgente e uma necessidade dos cidadãos, legisladores e líderes em distinguir entre os usos aceitáveis e inaceitáveis da inteligência artificial.
Nesta luz, nós assinamos e concordamos que a decisão de tirar uma vida humana nunca deve ser decidida por uma máquina. Existe um componente moral nessa posição em que não podemos permitir que máquinas façam decisões de vida pelas quais outros – ou ninguém – será o culpado.
Também há um outro argumento poderoso e pragmático: armas letais autônomas estão selecionando e engajando alvos sem a intervenção humana, e isso seria perigosamente desestabilizador para cada país e indivíduo. Milhares de pesquisadores em inteligência artificial concordam que, removendo o risco e a dificuldade de tirar vidas humanas, estas armas podem se tornar instrumentos poderosos de violência e opressão, especialmente quando conectadas a sistemas de dados e vigilância.
Além disso, as armas letais autônomas possuem características bem diferentes das armas nucleares, químicas e biológicas, e as ações unilaterais de um único grupo podem facilmente darem início a uma corrida armamentista em que a comunidade internacional não possui ferramentas técnicas e sistemas de governo global para gerenciar. Estigmatizar e prevenir tal corrida deve ser a maior prioridade para a segurança nacional e global".