Alexandre Winetzki é CEO da Woopi de diretor de P/D da Stefanini
O
mundo da Inteligência Artificial ( IA ) não tem muita gente. Alguns milhares de
profissionais ao redor do mundo, que lêem artigos nos mesmos lugares,
frequentam os mesmos eventos e, cada vez mais, trabalham nas mesmas poucas
empresas.
Para
essa gente discreta, um dos assuntos favoritos do café é quando, e se, o que
chamamos de IAG ( Inteligência Artificial Geral ), será finalmente criada. As
apostas vão de ´estamos quase lá´ a ´nunca´, o que é, como você leitor notou,
uma margem de tempo bastante flexível.
IAG,
a propósito, define o momento em que um sistema de IA adquirirá consciência e
passará a tomar suas próprias decisões de aprendizado e desenvolvimento. Também
se acredita que, uma vez ultrapassado esse patamar, essa ´inteligência´
superará rapidamente a nossa, ameaçando o mundo como o conhecemos. Eu sei, eu
sei, soa como filme de Hollywood, mas um monte de gente boa acredita que isso
vai acontecer, e livros como Sapiens
e principalmente The Age of
Spiritual Machines, de Ray Kurzweil, guarde
esse nome, tratam do tema extensivamente, ainda que nunca deixe de parecer
ficção científica.
Pois
os papos no café ganharam um impulso poderoso algumas semanas atrás quando um
engenheiro do Google chamado Blake Lemoine apareceu num artigo do Washington
Post ( Wapo ) afirmando que laMDA,um
experimento da empresa onde trabalha que se pretende um criador de chatbots
super eficiente, havia ganhado vida.
A
maioria dos especialistas afirmou que o que Blake dizia não fazia sentido. Eu
disse exatamente a mesma coisa quando ouvi a notícia de segunda ou terceira
mão. Afinal, Large Language Models ( LLM´s, vou explicar mais prá frente o que
são ), não pensam, algum jornalista estava simplificando algo complexo, e o tal
Blake devia estar tentando se promover.
Dois
dias depois o assunto continuava esquentando no nosso canto nerd do mundo, e eu
acabei lendo excelentes artigos, como este, de Gary Marcus,
reafirmando o que eu já dava como certo, o artigo do Wapo era exagerado, quase
histérico ( Nonsense de Salto Alto, segundo Marcus). LLM´s não pensam, e o
mundo está cheio de gente querendo aparecer com notícias bombásticas.
Mas
como eu precisava de algum argumento para jogar na roda, resolvi ler o artigo
original do jornal americano, que não mudou em nada minha opinião, apenas me
deu vontade de passar os olhos pela transcrição completa da conversa entre o
engenheiro e o sistema LaMDA, publicado no Medium.
Porque eu sei todos os truques que um modelo de processamento de linguagem
guarda na manga, em dois minutos eu identificaria meia dúzia deles e o assunto
estaria resolvido na minha cabeça. Então eu li, e gostaria de ter uma alegoria
melhor do que ´quase caí para trás´.
Porque
eu não quase caí de fato, estava bem sentado. Mas depois eu reli, e reli ainda
outra vez, e acabei indo buscar madrugada adentro dezenas de artigos mais ou
menos técnicos, entrevistas de Blake Lemoine, especificações de sistemas que
ele menciona como parte do laMDA e quem são os cientistas e técnicas envolvidos
no que o Google chama de ´experimento´.
E
resolvi escrever não apenas um artigo, mas uma série deles, explicando o que
essa conversa entre um engenheiro e um sistema significa para nossa estrutura
social, com ramificações que irão de política a relacionamentos, do mercado de
trabalho ao entretenimento. Enfim, a quase tudo o que nos cerca.
Mas o que me fez soar tão bipolar ? Na terça-feira eu dei de ombros porque, como toda semana, alguém estava exagerando o estágio de desenvolvimento e o potencial real da IA. E na sexta eu já acreditava que estamos batendo as portas de uma revolução que vai transformar a maneira como vemos e interagimos com o mundo.
São três razões principais (e espero que você volte semana que vem para o próximo artigo):
1. Modelos
de linguagem natural não deveriam ser capazes de guardar contextos temporais e
pessoais
2. Não
deveriam ser capazes de ler e interpretar textos complexos, muito menos debater
diferentes perspectivas a respeito do que leram
3. Modelos
de linguagem natural não deveriam discutir ´seus sentimentos´, (as aspas são
propositais), de maneira consistente e homogênea, nem expressar uma visão de
mundo clara e coerente, apoiada e reforçada pelos dois itens acima.
Continuo na próxima segunda-feira
Nenhum comentário:
Postar um comentário