Na conferência de desenvolvedores do Google I/O, a empresa apresentou aos desenvolvedores - e em certa medida, aos consumidores - por que suas apostas em IA estão à frente dos concorrentes. No evento, a empresa revelou um mecanismo de busca atualizado alimentado por IA, um modelo de IA com uma janela de contexto expandida de 2 milhões de tokens, assistentes de IA em seus aplicativos da suíte de trabalho, como Gmail, Drive e Docs, ferramentas para integrar sua IA aos aplicativos dos desenvolvedores e até uma visão futura para a IA, codinome Projeto Astra, que pode responder a visão, sons, voz e texto combinados.
Embora cada avanço por si só fosse promissor, a enxurrada de notícias sobre IA foi esmagadora. Embora claramente voltados para os desenvolvedores, esses grandes eventos também são uma oportunidade para impressionar os usuários finais sobre a tecnologia. Mas depois do dilúvio de notícias, até mesmo consumidores um pouco familiarizados com tecnologia podem estar se perguntando: espera, o que é Astra novamente? É isso que alimenta o Gemini Live? O Gemini Live é meio parecido com o Google Lens? Como é diferente do Gemini Flash? O Google está realmente fabricando óculos de IA ou é apenas um acéfalo? O que é Gemma, o que é LearnLM... o que são Gems? Quando o Gemini chegará à sua caixa de entrada, seus documentos? Como uso essas coisas?
Se você sabe as respostas para essas perguntas, parabéns, você é um leitor do TechCrunch. (Se não sabe, clique nos links para se atualizar.)
O que faltou na apresentação geral, apesar do entusiasmo dos apresentadores individuais ou dos aplausos dos funcionários do Google na plateia, foi o sentido da revolução da IA iminente. Se a IA acabará levando a um produto que impactará profundamente a direção da tecnologia da maneira que o iPhone impactou a computação pessoal, este não foi o evento em que ele estreou.
Em vez disso, a ideia principal é que ainda estamos nos primeiros dias do desenvolvimento da IA.
À margem do evento, havia uma sensação de que até os funcionários do Google sabiam que o trabalho estava incompleto. Ao demonstrar como a IA poderia compilar o guia de estudo e o questionário de um aluno em minutos depois de enviar um documento de várias centenas de páginas - uma proeza impressionante - notamos que as respostas do questionário não estavam anotadas com as fontes citadas. Quando questionada sobre a precisão, um funcionário admitiu que a IA acerta as coisas na maioria das vezes e uma versão futura apontaria para fontes para que as pessoas pudessem checar as respostas. Mas se você precisa verificar as informações, quão confiável é um guia de estudo de IA para prepará-lo para o teste em primeiro lugar?
No demo do Astra, uma câmera montada sobre uma mesa e ligada a uma grande tela sensível ao toque permitia fazer coisas como jogar Pictionary com a IA, mostrar objetos para ela, fazer perguntas sobre esses objetos, fazer com que ela conte uma história e muito mais. Mas os casos de uso de como essas habilidades se aplicarão à vida cotidiana não eram prontamente aparentes, apesar dos avanços técnicos que, por si só, são impressionantes.
Para lhe dar uma ideia de onde a tecnologia está hoje, a equipe do Google não permitiu gravações ou fotografias na sala da demo do Astra. Eles também tinham o Astra rodando em um smartphone Android, mas você não podia ver o aplicativo ou segurar o telefone. As demonstrações foram divertidas, e certamente a tecnologia que as possibilitou vale a pena explorar, mas o Google perdeu a oportunidade de mostrar como sua tecnologia de IA impactará sua vida cotidiana.
Quando você precisará pedir a uma IA para criar um nome de banda com base em uma imagem do seu cachorro e um tigre de pelúcia, por exemplo? Você realmente precisa de uma IA para ajudar a encontrar seus óculos? (Estes foram outros demos do Astra na keynote.)
Esta não é a primeira vez que vemos um evento de tecnologia cheio de demos de um futuro avançado sem aplicações do mundo real ou aqueles que promovem conveniências como atualizações mais significativas. O Google, por exemplo, também já provocou seus óculos de RA em anos anteriores. (Até mesmo paraquedistas paraquedistas usando Google Glass, um projeto construído há mais de uma década, que desde então foi descontinuado.)
Depois de assistir ao I/O, parece que o Google vê a IA como apenas mais um meio de gerar receita adicional: Pague pelo Google One IA Premium se quiser suas atualizações de produto. Talvez, então, o Google não faça a primeira grande descoberta de IA para consumidores. Como o CEO da OpenAI Sam Altman recentemente refletiu, a ideia original para a OpenAI era desenvolver a tecnologia e "criar todos os tipos de benefícios para o mundo. "
"Em vez disso," ele disse, "agora parece que criaremos a IA e outras pessoas a usarão para criar todo tipo de coisas incríveis das quais todos nos beneficiamos."
O Google parece estar na mesma situação.
Ainda assim, houve momentos em que a IA do Astra do Google parecia mais promissora. Se pudesse identificar corretamente o código ou fazer sugestões sobre como melhorar um sistema com base em um diagrama, é mais fácil ver como poderia ser um companheiro útil no trabalho. (Clippy, evoluído!)
Houve outros momentos em que a praticidade da IA no mundo real brilhou também. Uma ferramenta de busca melhor para o Google Fotos, por exemplo. Além disso, ter a IA do Gemini em sua caixa de entrada para resumir e-mails, redigir respostas ou listar itens de ação poderia ajudá-lo finalmente a chegar ao zero da caixa de entrada, ou alguma aproximação disso, mais rapidamente. Mas pode limpar seus e-mails indesejados, mas não spam, organizar inteligentemente os e-mails em etiquetas, garantir que nunca perca uma mensagem importante e oferecer uma visão geral de tudo em sua caixa de entrada que você precisa agir assim que fizer login? Não exatamente. Ainda.
Além disso, alguns dos recursos mais complexos, como fluxos de trabalho alimentados por IA ou a organização de recibos que foram demonstrados, não serão lançados nos Laboratórios até setembro.
Ao pensar em como a IA impactará o ecossistema Android - a proposta do Google para os desenvolvedores presentes -, havia uma sensação de que mesmo o Google ainda não pode argumentar que a IA ajudará o Android a atrair usuários para longe do ecossistema da Apple. "Quando é o melhor momento para mudar do iPhone para o Android?", perguntamos a Googlers de vários escalões. "Este outono" foi a resposta geral. Em outras palavras, o evento de hardware de outono do Google, que deverá coincidir com a adoção da RCS pela Apple, uma atualização para SMS que tornará a mensagens do Android mais competitivas com o iMessage da Apple.
Em resumo, a adoção de IA pelos consumidores em dispositivos de computação pessoal pode exigir novos desenvolvimentos de hardware - talvez óculos de RA? um smartwatch mais inteligente? Pixel Buds com energia Gemini? - mas o Google ainda não está pronto para revelar suas atualizações de hardware ou até mesmo provocá-las. E, como já vimos, com os lançamentos decepcionantes da Ai Pin e do Rabbit, o hardware ainda é difícil.
Embora muito possa ser feito hoje com a tecnologia de IA do Google em dispositivos Android, os acessórios do Google, como o Pixel Watch e o sistema que o alimenta, o WearOS, foram amplamente ignorados no I/O, além de algumas melhorias de desempenho menores. Seus fones de ouvido Pixel Buds nem sequer tiveram uma menção. No mundo da Apple, esses acessórios ajudam a prender os usuários em seu ecossistema, e poderiam um dia conectá-los com a assistente de IA Siri. Eles são peças críticas de sua estratégia geral, não complementos opcionais.
Enquanto isso, há uma sensação de espera pelo próximo passo: ou seja, a WWDC da Apple. A Conferência Mundial de Desenvolvedores da gigante da tecnologia promete revelar a própria agenda de IA da Apple, talvez por meio de uma parceria com a OpenAI... ou até mesmo com o Google. Será competitivo? Como pode ser se a IA não pode se integrar profundamente ao sistema operacional, da maneira que o Gemini pode no Android? O mundo está esperando a resposta da Apple.
Com um evento de hardware de outono, o Google terá tempo para analisar os lançamentos da Apple e depois tentar criar seu próprio momento de IA tão poderoso e imediatamente compreensível quanto a introdução do iPhone por Steve Jobs: "Um iPod, um telefone e um comunicador com a Internet. Um iPod, um telefone... você está entendendo?"
As pessoas entenderam. Mas quando entenderão a IA do Google da mesma maneira? Não deste I/O, pelo menos.
Estamos lançando um boletim informativo de IA! Inscreva-se