发布于: Android转发:0回复:0喜欢:1
网页链接 谷歌I/O 2024如期来了,眼花缭乱地发布了一堆更新。
跟OpenAI半小时的「小而美」发布会相比,谷歌显然准备得更加充分,当然,时间也相当之长……
2个多小时的发布会也是挑战着观众们的极限,在场人群早已困倒一大片
准备好,谷歌要开始轰炸了。
首先,Gemini 1.5 Pro,上下文长度将达到惊人的200万token。
然后,面对昨天OpenAI GPT-4o的挑衅,谷歌直接甩出大杀器Project Astra,视觉识别和语音交互效果,跟GPT-4o不相上下。
接着,谷歌祭出文生视频模型Veo硬刚Sora,效果酷炫,时长超过1分钟,打破Sora纪录。
最后来了一个重磅消息:谷歌搜索将被Gemini重塑,形态从此彻底改变!我们不再需要自己点进搜索结果,而是由多步骤推理的AI Overview来代办一切。
发布会结束后,劈柴甚至还用Gemini算了一下,整个发布会共提了121次AI。
谷歌搜索,被Gemini彻底重塑
之前OpenAI一直有意无意放出烟雾弹,声称要发布全新的搜索产品,等于是把刀架在谷歌脖子上了。
果然,谷歌这次不甘示弱,放出了个大的。
从今天开始,在Gemini的加持下,谷歌搜索会彻底变样。
在搜索框下,会出现一个为你量身定做的AI总结。
注意,它并不简单地将所有内容拼凑在一起,而是帮你把活都干了!
你的问题是什么样,它就会帮你做规划,展示出若干个卡片,让搜索信息以鲜明的方式被呈现出来。
这次AI Overview即将发布的另一个重磅功能,就是多步骤推理。
它能将用户输入的一个复杂问题分解成多部分,确定需要解决哪些问题,以及用什么顺序解决。
因此,以前可能要花几分钟甚至几个小时的研究,现在几秒钟内就可以完成!因为它将十个问题合而为一。
比如,如果想找到波士顿最好的瑜伽或普拉提工作室,它会直接搜出来结果,然后帮你整理好情况介绍和工作时间。
只要一次搜索,所有需要的信息就自动呈现出来。
在下面这个例子中,你可以要求谷歌提供一个三天的膳食计划。
这些食谱被从整个网络整合出来,清晰又全面。
而且,我们还可以用视频去搜索了!
比如,该怎么修这个唱片机?
以前,我们需要进行一堆搜索,确定它的牌子、型号。
现在,直接拍一个视频丢给谷歌,然后直接开口问:它的这个毛病是什么原因?
谷歌用AI Overview,给出了最全面的信息。
从此,在谷歌搜索中,你需要做的,就是简单的「张嘴问」。
对标GPT-4o,Project Astra打造通用AI智能体
我们已经看到,新模型GPT-4o赋予了ChatGPT强大的实时对话能力,让Her走进现实。
全新AI语音助手,是通往AGI的下一个未来。
对标OpenAI,谷歌DeepMind今天首次对外公布了「通用AI智能体」新项目——Astra。
其实,昨天谷歌放出了一个demo,已经让所有人对Astra项目有了初步的了解。
而今天,现场的演示更加炸裂。
网友称,这是谷歌I/O大会中,自己最喜欢的part。
不仅有Astra强大的对答如流的能力,还首次展示了「谷歌AR原型眼镜」配上AI的震撼演示。
Astra两部分演示,每段视频均为单次拍摄、实时录制完成
召唤Gemini之后,测试者提出问题,「当你看到会发出声音的东西时,告诉我」。
它回答道,「我看到一个扬声器,它可能会发声」。
接下来,测试者用红色剪头指向扬声器的顶部,再次问道,「这个扬声器的部件叫什么」?
Gemini准确理解指令,并答出「这是高音扬声器,能产生高频的声音」。
然后,对着桌上一桶彩色蜡笔,让Gemini就展示的物体,给出了「押头韵」的创意——
「Creative crayons color cheerfully. They certainly craft colorful creations.」
Gemini以「c」音重复开头,生动形象地描绘了用蜡笔欢快涂色,可以创作出许多绚丽多彩作品的场景。
而更让你意想不到的是,它还可以读懂代码。
甚至都不是截屏,而是用摄像头怼着电脑屏幕拍,然后问Gemini「这部分代码是做什么的」?
Gemini看了一眼,就立即给出回答:「此段代码定义了加密和解密函数。它似乎使用AES CBC加密,根据密钥和初始化向量对数据进行编码和解码」。
再将镜头移向窗外,「我在哪个街区」?
Gemini便回答道,「这似乎是伦敦国王十字区,这里以火车站和交通枢纽而闻名」。
眼镜找不到了?
直接可以问Gemini,「你记得在哪里见过我的眼镜」?
它立刻回想刚刚见到的场景,「是的,我记得。你的眼镜就在桌子上,旁边有一个红苹果」。
要知道,刚刚这个问题并没有向它提过,Astra完全是凭自己的视觉记忆回答出来的,简直成精了。
而Astra的这番表现,直接让全场倒吸一口凉气,发出惊呼。