O que é inteligência artificial?

Agora, por meio de uma carta aberta, as companhias voltaram a se unir para firmar o compromisso de não criar “armas autônomas letais”. O documento foi assinado pelo próprio Elon Musk e executivos como Shane Legg, Mustafa Suleyman e Demis Hassabis, fundadores da DeepMind, a subsidiária de inteligência artificial do Google.

No texto, eles afirmam que a “inteligência artificial está pronta para desempenhar um papel crescente em sistemas militares”. No entanto, o grupo entende que “a decisão de tirar uma vida humana não deve nunca ser delegada a uma máquina”. O documento também argumenta que, ao selecionar alvos sem intervenção humana, as armas letais autônomas seriam “desestabilizadoras para cada país e indivíduo”. Para resolver o problema, o grupo pede que governantes ajudem a criar “um futuro com normas, regulações e leis internacionais fortes contra armas letais autônomas”. A carta foi organizada pelo Future of Life Institute, que visa “atenuar o risco existencial” à humanidade. A associação também enviou a carta à ONU pela proibição de armas robóticas. O novo documento foi assinado por 170 organizações e 2.464 especialistas de 26 países, incluindo a Sociedade Brasileira de Computação e diversos acadêmicos brasileiros. Ainda não é possível saber se o movimento terá resultados expressivos, mas, unidos, empresas e pesquisadores podem ter mais sucesso. Os próprios princípios do Google, por exemplo, só foram definidos após uma pressão de funcionários que pediam para a empresa sair do “negócio de guerra”. Com informações: The Verge.

Elon Musk e outros n o querem armas letais com intelig ncia artificial   Tecnoblog - 75