No lançamento do telefone Pixel do Google na terça-feira, o diretor de produtos David Citron subiu ao palco para mostrar os recursos móveis do novo assistente com tecnologia de IA da empresa, Gemini. As coisas ficaram estranhas logo depois que o apresentador disse ao público: “A propósito, todas as manifestações de hoje são ao vivo”.
Diante de uma grande multidão de representantes da mídia e analistas do Google Em sua sede no Vale do Silício, onde o YouTube tem cerca de 100 mil espectadores, Citron tirou uma foto do pôster de um show e pediu a um assistente que verificasse sua agenda para ver se ele estava disponível na noite em que a estrela pop Sabrina Carpenter se apresentou em São Francisco.
A demonstração falhou, travou e deu uma mensagem de erro. Citron tentou novamente, com o mesmo resultado. Após um rápido apelo verbal aos “deuses da manifestação” e uma troca de números de telefone, a terceira tentativa funcionou.
“Claro, descobri que Sabrina Carpenter virá para São Francisco no dia 9 de novembro de 2024”, escreveu a assistente em uma mensagem que apareceu na tela de Citron. “Não vejo nenhum evento em sua agenda neste momento.”
Embora o incidente tenha sido breve e problemático, a demonstração ressaltou uma das vantagens do Google, à medida que os recursos de inteligência artificial se aprofundam no software dos smartphones. Os concorrentes estão preparando os consumidores para o futuro da IA, mas os recursos do Gemini do Google são reais e estão disponíveis – pelo menos para fins de teste – agora.
Em junho, Maçã revelou um vídeo pré-gravado em vez de uma demonstração ao vivo para mostrar o próximo salto na capacidade de seu assistente Siri de realizar ações e compreender o contexto como parte de seu novo sistema de inteligência artificial chamado Apple Intelligence.
O Apple Intelligence está atualmente em testes para desenvolvedores, mas algumas de suas melhorias mais importantes, incluindo geração de imagens, integração ChatGPT e melhorias importantes no Siri, ainda não saíram oficialmente dos laboratórios da Apple.
A OpenAI, que iniciou o boom da IA generativa com o ChatGPT, também revela frequentemente avanços da IA, mas limita estritamente o número de pessoas que podem testá-los.
“Acho que a novidade é que deixamos de projetar uma visão de que direção as coisas vão tomar e passamos a realmente enviar o produto”, disse Rick Osterloh, chefe da divisão de dispositivos do Google, a Deirdre Bose da CNBC na terça-feira.
As demonstrações ao vivo do Google marcam um afastamento das tentativas do ano passado de mostrar o Gemini e acabaram sendo fortemente criticadas pela edição de vídeo.
“O que mostramos hoje é o que será enviado nos próximos dias ou semanas, e isso é muito importante”, disse Osterloh. “Muitas das coisas que outras empresas anunciaram não estão realmente disponíveis para muitas pessoas. Isso estará disponível para milhões de pessoas muito em breve.”
Desde o anúncio da Apple em junho, a empresa conduziu vários cenários de testes ao vivo com a mídia e analistas da Apple Intelligence nos dispositivos atuais. Em julho, a Apple lançou uma prévia para desenvolvedores de alguns recursos do Apple Intelligence, incluindo a capacidade de gerar resumos e um novo visual para Siri que faz toda a tela do iPhone acender. No entanto, a versão prévia não inclui recursos como geração de imagens, integração ChatGPT e as melhorias mais esperadas da Siri que lhe permitirão realizar tarefas com naturalidade.
O lançamento do Google na terça-feira pode colocar nova pressão sobre a Apple, à medida que os dois líderes do mercado de smartphones competem para integrar IA em seus sistemas operacionais. A IDC estima que o número de smartphones habilitados para “Gen AI” – telefones com os chips e a memória necessários para executar a IA – mais do que quadruplicará em 2024, para cerca de 234 milhões de dispositivos.
“Hoje tivemos uma ideia do que a Apple está competindo”, disse Grace Harmon, analista da eMarketer, em entrevista.
Com a IA generativa chegando aos telefones, o mercado também verá uma mudança no processamento de IA. Em vez de modelos complexos que imitam a inferência humana, são executados em enormes NvidiaOs data centers alimentados por IA para dispositivos usarão funções mais simples, como resumo ou fluência, rodando principalmente nos chips já dentro dos dispositivos.
Na apresentação de 100 minutos do Google na terça-feira, a empresa exibiu vários recursos ainda não disponíveis para outras empresas.
O exemplo de Citron de fazer perguntas sobre o conteúdo de um pôster fotográfico demonstra um avanço técnico chamado “IA multimodal” que não é um recurso planejado na Apple.
A empresa introduziu um recurso que permite aos usuários fazer capturas de tela do que estão visualizando, e o Google compilará essas informações em notas que poderão ser encontradas rapidamente mais tarde.
A apresentação mais importante do Google na terça-feira foi Gemini Live, o assistente da próxima geração. Na demonstração, a tecnologia poderia se comunicar naturalmente como um ser humano faria, adicionando itens a listas de compras ou verificando os calendários do Google. Em breve, ele poderá ajudar o usuário a realizar pesquisas aprofundadas, disse Osterloh no palco. Os executivos do Google atribuíram essas capacidades a “décadas de investimento” em IA e à sua “estratégia integrada de IA”.
A certa altura, o Google disse que sua IA era “a experiência completa de ponta a ponta que só o Google pode oferecer”, um esclarecimento de uma frase que já vinha da Apple há muito tempo. Tim Cook, CEO da Apple, gosta de dizer que “só a Apple” pode criar os seus produtos devido à sua experiência na integração de hardware e software.
Em comunicado à imprensa, o Google criticou a próxima integração da Apple com o ChatGPT, prevista para antes do final do ano. A empresa disse que a abordagem da Apple é menos privada do que a do Google porque a Gemini “não exige a terceirização para um fornecedor terceirizado de IA que você talvez não conheça ou não confie”.
Leave a comment