Christopher Nolan quer que Oppenheimer seja um alerta para o Vale do Silício

Na época em que J. Robert Oppenheimer soube que Hiroshima havia sido atingida (ao lado de todos os outros no mundo), ele começou a lamentar profundamente seu papel na criação daquela bomba. A certa altura, ao se encontrar com o presidente Truman Oppenheimer, ele chorou e expressou seu pesar. Truman o chamou de bebê chorão e disse que nunca mais queria vê-lo. E Christopher Nolan espera que, quando o público de seu filme no Vale do Silício Oppenheimer (lançado em 21 de junho) veja sua interpretação de todos esses eventos, eles também verão algo de si mesmos.

Após uma triagem de Oppenheimer no Whitby Hotel ontem Christopher Nolan se juntou a um painel de cientistas e Kai Bird, um dos autores do livro Oppenheimer é baseado para falar sobre o filme, americano Prometheus. A platéia estava cheia principalmente de cientistas, que riam das piadas sobre os egos dos físicos do filme, mas havia alguns repórteres, inclusive eu, lá também.

Ouvimos debates muito breves sobre o sucesso da dissuasão nuclear e o Dr. Thom Mason, o atual diretor de Los Alamos, falou sobre quantos funcionários de laboratório atuais tiveram participações especiais no filme porque grande parte dele foi filmado nas proximidades. Mas no final da conversa, o moderador, Chuck Todd, da Conheça a imprensa, perguntou a Nolan o que ele esperava que o Vale do Silício aprendesse com o filme. “Acho que o que eu gostaria que eles tirassem é o conceito de responsabilidade”, disse ele a Todd.

“Aplicado à IA? Essa é uma possibilidade terrível. Aterrorizante.

Ele então esclareceu: “Quando você inova por meio da tecnologia, precisa garantir que haja responsabilidade”. Ele estava se referindo a uma ampla variedade de inovações tecnológicas que foram adotadas pelo Vale do Silício, enquanto essas mesmas empresas se recusaram a reconhecer os danos que repetidamente geraram. “O surgimento de empresas nos últimos 15 anos falando sobre palavras como ‘algoritmo’, sem saber o que elas significam em qualquer tipo de sentido matemático significativo. Eles simplesmente não querem assumir a responsabilidade pelo que esse algoritmo faz.”

Ele continuou: “E se candidatou à IA? Essa é uma possibilidade terrível. Aterrorizante. Até porque, à medida que os sistemas de IA entram na infraestrutura de defesa, em última análise, eles serão acusados ​​de armas nucleares e, se permitirmos que as pessoas digam que essa é uma entidade separada da pessoa cujo manejo, programação e uso da IA, então estamos condenados. Tem que ser sobre responsabilidade. Temos que responsabilizar as pessoas pelo que fazem com as ferramentas que possuem.”

Embora Nolan não tenha se referido a nenhuma empresa específica, não é difícil saber do que ele está falando. Empresas como Google, Meta e até Netflix dependem fortemente de algoritmos para adquirir e manter audiências e, muitas vezes, há resultados imprevistos e muitas vezes hediondos para essa confiança. Provavelmente o mais notável e verdadeiramente terrível é a contribuição de Meta para o genocídio em Mianmar.

“Pelo menos serve como um conto de advertência.”

Embora uma turnê de desculpas seja virtualmente garantida, dias depois que o algoritmo de uma empresa faz algo terrível, os algoritmos permanecem. Tópicos recém-lançados com um exclusivamente alimentação algorítmica. Ocasionalmente, as empresas podem fornecer uma ferramenta, como o Facebook fez, para desligá-lo, mas esses algoritmos de caixa preta permanecem, com muito pouca discussão sobre todos os possíveis resultados ruins e muita discussão sobre os bons.

“Quando falo com os principais pesquisadores no campo da IA, eles literalmente se referem a isso agora como seu momento Oppenheimer”, disse Nolan. “Eles estão olhando para a história dele para dizer quais são as responsabilidades dos cientistas que desenvolvem novas tecnologias que podem ter consequências não intencionais”.

“Você acha que o Vale do Silício está pensando nisso agora?” Todd perguntou a ele.

“Eles dizem que sim”, respondeu Nolan. “E isso é,” ele riu, “isso é útil. Isso pelo menos está na conversa. E espero que esse processo de pensamento continue. Não estou dizendo que a história de Oppenheimer oferece respostas fáceis para essas perguntas. Mas pelo menos serve como um conto preventivo.

source – www.theverge.com