神经网络及人工智能方面的资料

发布于: 修改于: Android转发:0回复:0喜欢:2

网页链接 从M-P神经元模型到感知机

网页链接 逻辑与人生:一颗数学巨星的陨落

网页链接 信息论系列:1 - 信息熵和香农熵

网页链接 信息论系列:2 - 联合熵和条件熵

网页链接 信息论系列:3 - 互信息和信息增益

网页链接 信息论系列:4 - 香农编码和数据压缩

网页链接 信息论系列:5 - 信道容量和信息传输的极限

网页链接 信息论系列:6 - 误差纠正码的原理与应用

网页链接 信息论系列:7 - 噪声模型的原理与影响

网页链接 信息论系列:8 - 信息论的实践应用:通信、密码学与机器学习

网页链接 神经网络基础系列 1 - 神经网络启蒙:揭开人工智能的神秘面纱

网页链接 神经网络基础系列 2 - 构建智能:多层感知机与深度学习的奥秘

网页链接 神经网络基础系列 3 - 数据的力量:前馈神经网络中的信息流

网页链接 神经网络基础系列 4 - 智能学习的艺术:训练神经网络的技巧与挑战

网页链接 神经网络基础系列 5 - 从实验室到现实世界:前馈神经网络的多样化应用

网页链接 激活函数:神经网络的魔法

网页链接 卷积神经网络系列 1 - 视觉世界的解码者:CNN入门
网页链接 卷积神经网络系列 2 - 深入卷积:探索CNN的核心运算
网页链接 卷积神经网络系列 3 - 模型优化的艺术:CNN中的池化与正则化
网页链接 卷积神经网络系列 4 - 构建深度视觉模型:高级CNN结构解析
网页链接 卷积神经网络系列 5 - CNN名人堂:走进经典卷积网络架构
网页链接 卷积神经网络系列 6 - 图像与超越:CNN在现实世界的应用

网页链接 递归神经网络系列 1 - 序列的魔法师:RNN基础

网页链接 递归神经网络系列 2 - RNN的弯路与直道:挑战与变体探索

网页链接 递归神经网络系列 3 - 记忆的艺术:长短期记忆网络详解

网页链接 递归神经网络系列 4 - 智能简化:门控循环单元的优化之道

网页链接 递归神经网络系列 5 - 未来语言模型:RNN的高级应用与进展

网页链接 生成对抗网络系列 1-艺术的AI画师:GAN入门

网页链接 生成对抗网络系列 2-GAN的平衡术:训练技巧与挑战

网页链接生成对抗网络系列 3-创新的GAN世界:高级GAN模型探秘

网页链接 生成对抗网络系列 4-数字艺术工坊:GAN在创意领域的应用

网页链接生成对抗网络系列 5-未来影像:GAN的伦理、挑战与方向

网页链接 变分自编码器系列 1- 梦境生成器:变分自编码器简介

网页链接 变分自编码器系列 2 - VAE的数学之旅:理论背景解析

网页链接 变分自编码器系列 3 - 编码与重构:构建与训练VAE

网页链接 变分自编码器系列 4 - 超越图像:VAE的多领域应用

网页链接 变分自编码器系列 5 - 探索潜在空间:VAE的未来与挑战

网页链接 变分自编码器系列 6 - AI生成的交响曲:VAE与GAN的比较

网页链接 图神经网络系列 1 - 连接图与智能:GNN导论
网页链接 图神经网络系列 2 - 图上的卷积:深入图卷积网络
网页链接 图神经网络系列 3 - 关注图的细节:GAT和GNN变体
网页链接 图神经网络系列 4 - 网络世界的图解析:GNN在复杂网络分析中的应用
网页链接 图神经网络系列 5 - 图智能的未来:GNN的挑战与发展

网页链接 Transformer(转换器)系列 1 - 聚焦智能:解析注意力机制

网页链接 Transformer(转换器)系列 2 - 超越RNN和LSTM:Transformer模型深度剖析

网页链接 Transformer(转换器)系列 3 - 语言革命:Transformer在NLP的应用

网页链接 Transformer(转换器)系列 4 - 多维应用:Transformer在跨领域的探索

网页链接 Transformer(转换器)系列 5 - 下一代AI模型:Transformer的未来与挑战

网页链接 《Attention is all you need》论文及译文

网页链接 图解Transformer

网页链接 图解transformer——功能概览(1)

网页链接 图解transformer——逐层介绍(2)

网页链接 图解transformer——多头注意力(3)

网页链接 解transformer——注意力计算原理(4)

网页链接 给中学生看的 ChatGPT 原理
网页链接 中学生能看懂:论文 《Attention Is All You Need》
网页链接 中学生能看懂:BERT原理解析
网页链接 中学生能看懂:GPT-1 论文《Improving Language Understanding by Generative Pre-Training》
网页链接 中学生能看懂:GPT-2 论文《Language Models are Unsupervised Multitask Learners》
网页链接 中学生能看懂:GPT-3 论文《Language Models are Few-Shot Learners》
网页链接 饭后谈资:从GPT到ChatGPT,发生了什么?
网页链接 与AI共生

网页链接 看完大模型,我决定改变自己的大脑

网页链接 RAG:检索增强的前世今生
网页链接 面向AI内容生成的检索增强生成(RAG)技术全面综述:背景、基础、进阶、应用、展望(上)
网页链接 面向AI内容生成的检索增强生成(RAG)技术全面综述:背景、基础、进阶、应用、展望(下)
网页链接 从传统RAG到GraphRAG - 当大模型遇见知识图谱
网页链接 大型语言模型时代的图机器学习综述:发展历史、LLM增强图学习、图增强LLM、应用场景、未来方向(上)
网页链接 大型语言模型时代的图机器学习综述:发展历史、LLM增强图学习、图增强LLM、应用场景、未来方向(下)

网页链接 检索增强生成技术(RAG)深度优化指南:原理、挑战、措施、展望
网页链接 2023年多模态检索增强生成技术(mRAG)最新进展与趋势-图片、代码、图谱、视频、声音、文本
网页链接 RAG智能体:开启信息处理与知识探索的革命之旅
网页链接 高级检索增强生成技术(RAG)全面指南:原理、分块、编码、索引、微调、Agent、展望

网页链接 什么是SLAM
网页链接 一文了解什么是BEV感知?
网页链接 一文弄明白特斯拉的端到端自动驾驶
网页链接 大模型对汽车行业意味着什么?
网页链接 自动驾驶必须All-in「端到端」

网页链接 特斯拉大裁员后的豪赌,FSD v12 是如何诞生的

网页链接 达特茅斯会议与人工智能的起源
网页链接 自动定理证明兴衰纪(上)
网页链接 自动定理证明兴衰纪(下)

网页链接 从专家系统到知识图谱
网页链接 野心勃勃的日本第五代计算机,如何一步步走向失败(上)
网页链接 野心勃勃的日本第五代计算机,如何一步步走向失败(下)

网页链接 神经网络简史
网页链接 计算机下棋简史:机定胜人,人定胜天
网页链接 自然语言处理
网页链接 向自然学习:从遗传算法到强化学习

网页链接 哲学家与人工智能

网页链接 人是机器吗?——人工智能的计算理论基础

网页链接 智能的进化

网页链接 当我们谈论生死时,我们在谈论什么?

网页链接 总结

网页链接 图灵小传
网页链接 人工智能前史:图灵与人工智能
网页链接 冯诺依曼与人工智能
网页链接 计算机与智能(上)
网页链接 计算机与智能(下)

网页链接 智能的新构想(一)
网页链接 智能的新构想(二)
网页链接 智能的新构想(三)
网页链接 深度学习的演进(一)
网页链接 深度学习的演进(二)
网页链接 深度学习的演进(三)
网页链接 深度学习的演进(四)
网页链接 深度学习的演进(五)

网页链接 人类,智能与未来(一)
网页链接 人类,智能与未来(二)
网页链接 人类,智能与未来(三)
网页链接 人类,智能与未来(四)

网页链接 一场技术的辉煌胜利:人工智能十年回顾

网页链接 一篇论文奠定现代人工智能:8位谷歌员工的幕后故事

网页链接 深度学习崛起十年:“开挂”的OpenAI革新者
网页链接 GPT-4创造者:第二次改变AI浪潮的方向
网页链接 GPT总设计师:大型语言模型的未来
网页链接 OpenAI首席科学家:通向无监督学习之路
网页链接 OpenAI首席科学家:直面AGI的可能性

网页链接 颠覆性编程:软件2.0
网页链接 Andrej Karpathy专访:AGI、Optimus、软件2.0时代

网页链接 State of GPT(简版)

网页链接 State of GPT(英中双语)
在去年举办的微软开发者大会 Microsoft Build 2023 上,OpenAI 联合创始人 Andrej Karpathy 做了一个题为《State of GPT》演讲,其中他首先直观地介绍了 GPT 的训练流程的各个阶段,然后展示了如何使用 GPT 来完成任务并给出了直观的示例,最后他还给出了一些非常具有实际意义的使用建议。

网页链接 想要改变一切的 OpenAI,正在被改变

网页链接 纵览机器学习前生今世,万字整理谷歌首席科学家 Jeff Dean 一小时演讲

网页链接 乔姆斯基 vs ChatGPT

网页链接 所罗门诺夫:大语言模型的先知

网页链接 计算复杂性50年:王浩与计算理论

网页链接 辛顿最新公开演讲:数字智能会取代生物智能吗?
网页链接 LeCun最新专访:为什么物理世界终将成为LLM的「死穴」?
网页链接 Yoshua Bengio独家专访:我不想把大模型未来押注在Scaling Law上,AGI路上要“注意安全”

网页链接 强化学习之父Richard Sutton:通往AGI的另一种可能

网页链接 对话AI奠基人谢诺夫斯基:一切都将在你的有生之年发生转变

全部讨论

05-12 11:23

讨论已被 丛林与楚门 删除