神经网络细分:卷积神经网络。Figure机器人所使用到的必要技术是哪些?

发布于: 修改于:雪球转发:1回复:7喜欢:10

神经网络周末特别火,我周末看了下,Figure的创始人Brett Adcock对于机器人的说法。

Brett 认为人形机器人研发一定是软硬件一体的过程,LLM 语言大模型为机器人提供了强大的大脑,是软件层面的重要补足。

(就是使机器人能够正确的接收并生成人类语言)

要让人形机器人从工厂走进家庭,关键在于语言,所以 LLM 或视觉语言模型对我们的业务帮助很大。

——————————————————————————————————————————————————————————————————————————————

神经网络:

创始人也说到,里面有应用到了神经网络。

神经网络,特别是深度学习,为机器人技术提供了强大的工具,使得机器人能够更好地理解环境、进行决策、学习和适应变化。

具体来说,神经网络在以下几个方面发挥着关键作用:

感知:神经网络,尤其是卷积神经网络(CNN),被广泛应用于各种传感器数据的处理,如图像和语音识别。这些技术使得机器人能够更有效地感知和理解周围环境,从而更好地执行任务。

决策:深度学习神经网络,如基于LSTM(长短期记忆)的循环神经网络,被用于处理序列数据,如时间序列和语音识别。这些技术使得机器人能够学习和适应行为,并根据环境变化做出决策。

混合现实:神经网络,特别是三维卷积神经网络,被用于处理三维场景的数据,将虚拟世界与现实世界相结合,为机器人提供了更丰富的环境感知和操作能力。

总之,神经网络为机器人技术带来了革命性的变革,使得机器人能够更好地适应各种复杂环境,执行各种任务,并不断学习和改进自己的行为。因此,神经网络在机器人领域中具有不可替代的地位。

———————

而我个人了解后。按照最适合机器人的神经网络去看。

大概有如下两种。(两者并不对立,可以融合使用,也可以单独)

卷积神经网络(CNN):机器人需要处理视觉信息,包括感知环境、识别物体和进行导航等任务,CNN在这些任务上表现出了较好的性能,因此适用于机器人视觉任务

循环神经网络(RNN)和长短期记忆网络(LSTM):机器人需要处理时间序列数据,例如控制机器人运动、预测环境变化等任务,RNN和LSTM在这些任务上表现出了较好的效果。

——————————————————————————————————————————————————————————————————————————————

综上所述,你向机器人发出语言指令,对方通过LLM大模型去生成并理解这段话,神经网络思考决策,通过机器视觉去看到这个物品,然后开始下一步操作。

GIF图片在下面链接。

Figure发布机器人,可与人类对话,具备一定的思考能力

总的来说就是:听,想,看。

要想实现发布会上的操作行为,以上缺一不可。

——————————————————————————————————————————————————————————————————————————————

这里推荐的是$盛视科技(SZ002990)$

公司主营业务原本是海关岸口的安检设备。随着时代进步,公司产品也在智能化。

而安检主要是以看为主。公司在机器视觉这一块看的比较深入。

所以公司在卷积神经网络模型上比较下功夫。

公司基于声波原理、卷积神经网络模型、图像合成和分析算法、智能判图、多光谱图像分析等核心技术原理,运用人工智能、深度学习、大数据、物联网等技术叠加智能监管设备,突破了在口岸复杂环境下实现全方位智能查验的技术瓶颈。

——————————————

特别是在3月14日,公司申请了关于神经网络的专利,从描述来看就是卷积神经网络。

————————————————

以人工智能为,卷积神经网络基础上研发出了许多机器人。

机器人方面,公司基于通用机器人底盘技术,AI 赋能机器人,将室内/外巡检机器人、协作机器人、车底查验机器人、消防机器人等机器人家族系列产品向口岸以外的电力、商超、园区、楼宇、消防等领域推广。

——————————

2023半年度报告期内。公司还在积极探索LLM语言大模型在机器人上的应用落地。

$宏达新材(SZ002211)$

全部讨论

03-17 20:02

$ 芯原股份,公司用于人工智能的神经网络处理器(Npu)业界领先国内第一,共出货了1亿颗Npu芯片。另外最新推出了,vip9000系列Npu ip提供了可扩展和高性能处理能力,适用于Transformer和卷积神经网络(Cnn)。

这有啥炒的?普通的机器算法

03-17 18:50

太复杂的概念持续性堪忧

03-18 03:26

讨论已被 天府- 删除

03-17 21:20

这么复杂不好短线炒作价值投资的上吧

03-17 20:18

感谢分享