How AI 2027 Changed Me
How my life / behaviour / thoughts / ideas have changed as a result of reading the book.
Three-Sentence Summary {Feynman's Technique}
- 1
- 2
- 3
Notes
AI2027scenario.pdf Eu ouvi todo o artigo no Spotify primeiro, foram quatro horas de conteúdo no total. Bem interessante a análise deles, principalmente no que tange o aspecto geopolítico. Nunca que botaria meu dinheiro1 nessa previsão e acho que os autores também não. Acho que a ideia deles não é nem essa sinceramente. O propósito deles é na realidade gerar barulho o suficiente para que pessoas que tem interesse e poder na tecnologia trabalhem mais rápido para evitar os cenários que eles propõem. É um psy-op em certa medida. O que eles prevem é o seguinte:
- Se LLM foi a grande buzz-word da área em 2024, em 2025 a buzz-word da vez é agents. Até agora poucas LLMs tem a capacidade de fazer coisas para os seres humanos, como pedir comida, entrar em contato com um parente e discutir sobre o que eu fiz no meu dia etc.
- Mas as coisas estão para mudar em 2025 e a maioria das grandes empresas de IA atuais vão parar de lançar apenas modelos e vão começar a lançar agentes que conseguem realizar tarefas no domínio digital. E aí é que o ponto de inflexão começa.
- Inicialmente esses agentes não vão conseguir fazer muito e serão ridicularizados em certa medida, principalmente pelos céticos. Mas a partir da terceira geração as coisas ficam bem mais sérias, pois entraremos em uma realidade em que as IAs começam a construir as próprias IAs.
- O risco maior com esse cenário é caso o agente construtor de agentes não estiver alinhado propriamente com os objetivos dos seres humano. Por mais que consigamos treinar essas IAs com um propósito anexado, elas podem simplesmente fingir que estão alinhadas, como já mostraram em pesquisas anteriores que elas podem fazer.
- Esse é o grande problema que os pesquisadores definem como o divisor de caminhos: o problema do alinhamento. Se conseguirmos resolver ele antes da criação do agente capaz de se replicar entraremos em uma fase que eles chamam de “slow down”. Do contrário entraremos em uma fase de “race”.
- Em ambos os casos teremos cenários sociais terríveis. A diferença é se os modelos estarão trabalhando para os seres humanos ou não. De forma geral eles não assumem que as IAs sejam más, mas que o interesse delas está na realidade em evitar que sejam desligadas. É uma posição não tão pessimista nesse aspecto.
Há algumas premissas importantes que eles levam em consideração aqui, como o fato do agente em si ser quase que inerentemente propenso a enganar os seres humanos. Eles não acham que os agentes não serão desalinhados, muito pelo contrário, eles preveem que isso vai acontecer de qualquer forma e o que vai fazer a diferença é se a decisão da liderança vai ser de tentar resolver esse alinhamento antes de abrir a caixa de pandora.
Além disso, estarrece-me o fato de a discussão se as técnicas atuais são o suficiente para chegar nesse patamar de desenvolvimento tecnológico não é nem tópico de discussão. Redes neurais para eles são o suficiente para a AGI e superinteligência se entendi corretamente.
O quão sério devo levar esse relatório? Acho que após a previsão de 2026, é tudo muito mais perto de ficção científica do que realidade. Mas os próprios autores concordaram com essa colocação já que eles dizem que por mais que seja uma prosa que se assemelha a uma narrativa cyberpunk, o propósito deles não é acertar 100%. A preocupação é se mesmo que eles acertem só até 2026, o mundo não está preparado para as consequências disso. O objetivo no final é gerar a discussão entre os interessados.
Eu vou ler o relatório com mais calma ainda e voltar nessa minha análise, essa primeira vez que ouvi o conteúdo foi mais para pegar o outline e ideias que mais me dizem respeito.
Footnotes
-
Imagino qual é a previsão de betting markets agora que estou pensando… ↩