Estamos prontos para a IA ressuscitar os mortos?

2023-05-04 14:13:03 by Lora Grem

Onze anos atrás, Tupac voltou à vida. O mesmo aconteceu com Michael Jackson dois anos depois. Ok, eles ainda não estavam respirando. Mas lá estavam eles, enfeitando o palco, reencarnados digitalmente como “hologramas”. Eles causaram uma comoção no momento em que se materializaram. Algumas pessoas que os viram pensaram que eles eram muito fofos - uma bela homenagem. Outros ficaram enjoados. Os produtores dos shows tiveram a aprovação das famílias? O Rei do Pop gostaria de ser ressuscitado como uma coleção de feixes de luz? Poderíamos realmente fazer essa escolha por ele?

Apenas uma década depois, você pode esquecer os hologramas. Estamos nos aproximando da possibilidade da imortalidade digital.

Aqui em 2023, testemunhamos a integração da inteligência artificial no espaço de alguns meses por meio do gerador de texto para imagem DALL-E e do “modelo de linguagem grande” ChatGPT. Agora existe IA em seu navegador com recursos que parecem ter chegado muito antes do previsto. O modelo mais recente lançado pela OpenAI, uma start-up da Bay Area, é chamado GPT-4 e se baseia em uma enorme quantidade de dados e “aprendizado de máquina” para responder a perguntas, conversar e até mesmo escrever redações inteiras com citações. Essas citações nem sempre são reais, no entanto, e as informações nem sempre são verdadeiras. O modelo não pode realmente avaliar a verdade ou a ficção, ele apenas aprende a montar palavras de maneira coerente. Ele pode construir a fala humana, mas não é consciente ou autoconsciente.

O que isso tem a ver com o brilhante renascimento de Michael Jackson no Billboard Music Awards? Uma coisa era os hologramas irem à propriedade de um artista famoso e pedir permissão para criar uma projeção dele para uma performance de quatro minutos. Era primitivamente realista, mas era essencialmente um filme em três dimensões. Aqui no presente, já se fala que as pessoas podem querer começar a salvar gravações de voz e vídeos de seus entes queridos, compilando seus escritos e textos, para que, depois que falecerem, esses pontos de dados possam ser colocados em um modelo de aprendizado de máquina para criar um fac-símile digital da pessoa que morreu. Um projeto do MIT em “ Eternidade aumentada e identidades trocáveis ” já está trabalhando nisso. No mínimo, pode ser o que Michael Sandel, o influente especialista em ética e filósofo político da Universidade de Harvard, chama de “chatbot de imortalidade virtual”, com o qual – com quem? – você pode trocar mensagens de texto. Chame-o de UndeadGPT.

Você pode ver possibilidades maravilhosas aqui. Alguns podem encontrar conforto em ouvir a voz de sua mãe, especialmente se ela soa como realmente soa e dá o tipo de conselho que ela realmente deu. Mas Sandel me disse que quando ele apresenta a escolha aos alunos em suas aulas de ética, a reação é dividida, mesmo quando ele pergunta de duas maneiras diferentes. Primeiro, ele pergunta se eles estariam interessados ​​no chatbot se um ente querido o deixasse após a morte. Então ele pergunta se eles estariam interessados ​​em construir um modelo de si mesmos para legar a outros. Ah, e se um chatbot for construído sem a entrada da pessoa que está sendo ressuscitada? A noção de que alguém escolheu ser representado postumamente em um avatar digital parece importante, mas mesmo assim, e se o modelo cometer erros? E se deturpar — até caluniar — os mortos?

Em breve, essas perguntas não serão teóricas e não há um amplo consenso sobre quem – ou mesmo o que – perguntar. Estamos nos aproximando de um dilema ético mais fundamental do que costumamos ouvir nas discussões sobre IA: viés humano embutido em algoritmos, preocupações com privacidade e vigilância, desinformação e desinformação, trapaça e plágio, deslocamento de empregos, deepfakes. Essas questões estão realmente todas interconectadas - Osama bot Laden pode fazer o cara real parecer meio razoável ou apenas pregar a jihad para pré-adolescentes - e todos eles precisam ser confrontados. Pensamos muito sobre o mundano (crianças trapaceando na história da AP) e o extremo (alguma IA avançada extinguindo a raça humana), mas é mais provável que passemos pelo corredor bagunçado no meio. Precisamos pensar sobre o que é permitido e como vamos decidir.

  digitamos 'morte e ressurreição conforme concebidas pelo artista pop andy warhol' no gerador de imagens ai da Shutterstock e obtivemos isso

Deixando os inventores para decidir se eles deve fazer algo que eles pode certamente não é um caminho aceitável a seguir. Não podemos repetir os erros da era da mídia social, quando nos tornamos o produto que as empresas estão vendendo. No momento, as empresas que trabalham nisso são essencialmente autorreguladas, mas os habitantes da cidade devem opinar sobre o que acontece no porão do Dr. Frankenstein.

Isso significará um papel para o temido Governo Federal, e nossa frota envelhecida de senadores precisará se atualizar rapidamente. “Tivemos um acordo bipartidário desde o governo Clinton e Gore para criar um oásis regulatório em torno de grandes empresas de tecnologia e start-ups”, diz Rob Reich, cientista político e diretor associado do Instituto de Stanford para Inteligência Artificial Centrada no Homem. Isso vai ter que mudar. Precisamos de padrões industriais e sociais que definam como a tecnologia se desenvolve, diz ele, “não estrelas de ouro para algumas empresas e nenhuma estrela para outras”.

Esta não é remotamente a primeira vez que enfrentamos um momento de nós-podemos-mas-devemos-nós como sociedade. Veja a edição de genes, que Reich considera um contraste útil. Na medicina, temos o Juramento de Hipócrates, comitês de ética institucionais e outras normas de longa data, em sua maioria inquestionáveis, em torno da pesquisa biomédica. “Pesquisadores de IA são mais como adolescentes em estágio avançado”, diz ele. “Eles estão recentemente cientes de seu poder no mundo, mas seu córtex frontal é extremamente subdesenvolvido e seu [senso de] responsabilidade social como consequência não é tão grande.”

Nossos problemas administrativos são agravados pelo fato de que, embora algumas empresas estejam abrindo caminho na construção dessas máquinas sem precedentes, a tecnologia logo se tornará difusa. É provável que mais da base de código desses modelos se torne disponível publicamente, permitindo que cientistas da computação altamente talentosos criem seus próprios na garagem. (Algumas pessoas em Stanford já construíram um imitador do ChatGPT por cerca de US$ 600.) O que acontece quando alguns tipos de empreendedores constroem um modelo de uma pessoa morta sem a permissão da família? (Tivemos uma espécie de prévia em abril, quando um tablóide alemão publicou uma entrevista gerada por IA com o ex-piloto de Fórmula 1 Michael Schumacher, que sofreu uma lesão cerebral traumática em 2013. Sua família ameaçou processar.) E se for um retrato impreciso ou sofre do que os cientistas da computação chamam de “alucinações”, quando os chatbots cospem coisas absurdamente falsas? Já temos pornografia de vingança. E se um velho inimigo construir uma versão falsa de sua esposa morta por despeito? “Há uma tensão importante entre acesso aberto e questões de segurança”, diz Reich. “A fusão nuclear também tem um enorme potencial positivo”, acrescenta ele, mas, em alguns casos, o acesso aberto à carne e aos ossos dos modelos de IA pode ser como “convidar pessoas de todo o mundo para brincar com plutônio”.

As apostas são realmente existenciais, e não apenas no cenário em que uma inteligência superpoderosa se liberta e ameaça nossa espécie. Quando levantei a possibilidade de modelos imprecisos de imortalidade virtual, Sandel sugeriu que os problemas reais poderiam surgir à medida que os modelos se tornassem cada vez mais precisos. “Quanto mais as anomalias desaparecem”, diz ele, “mais difícil será distinguir a experiência virtual de um encontro humano real”.

Sandel chama isso de problema de “autenticidade”, não de precisão. Se você clonasse seu cachorro, ambos seriam seus cachorros? Ou você sempre teria um arrepio no pescoço quando olhasse para o Sparky II? À medida que esses modelos se aproximam da perfeição da cópia carbono, nos deparamos com a questão do que nos separa de nossos clones digitais. É autoconsciência? Uma capacidade de empatia? É criatividade – inspiração genuína – ou estamos apenas, como o ChatGPT, reunindo palavras e conceitos em diferentes formações? É possível imbuir um pedaço de código com qualquer um dos itens acima e quanto nos custará descobrir?

Precisamos de proteções éticas para a próxima corrida do ouro, e não apenas porque o lucro aqui traz perigo. O Congresso deveria pensar seriamente em proibir a publicidade direcionada com IA, mesmo com a batalha da Primeira Emenda que seria desencadeada, mas isso é apenas o começo. Precisamos de critérios muito mais abrangentes que se concentrem no florescimento humano e na prevenção do sofrimento, talvez aplicados por um departamento inteiramente novo do governo federal. Agora estamos investigando questões sobre o que significa ser humano, e não podemos deixar que o Vale do Silício decida. Se um fac-símile digital de seu ente querido perdido está falando com você, eles estão realmente presentes? Está mais próximo de um filme caseiro ou está constantemente tornando-se de uma forma que reconheceríamos como humano? O ser humano é separável da natureza efêmera de nossa existência? Pode até gerar um novo conceito: o direito de permanecer morto.

É tudo o suficiente para fazer os hologramas parecerem coisa de criança. Estamos falando agora de um Deus Máquina e não podemos nos dar ao luxo de andar como sonâmbulos durante o Gênesis. Afinal, houve uma tentativa de impedir a ressurreição de Michael Jackson há nove anos, mas não se concentrou em nenhuma das moralidades. Uma empresa de hologramas estava processando outra por violação de patente.


Digitamos “morte e ressurreição conforme concebidas pelo artista pop Andy Warhol” no gerador de imagem AI da Shutterstock e obtivemos a imagem no topo.

  Tiro na cabeça de Jack Holmes Jack Holmes Escritor Sênior

Jack Holmes é redator sênior da LocoPort, onde cobre política e esportes. Ele também hospeda Unapocalipse , programa sobre soluções para a crise climática.