yuanfuxiansheng 的讨论

发布于: 雪球回复:14喜欢:0
#缘富读数字经济#
认同对数据的作用和价值,主要是对数据作为资产价值“入账”的思考,确认、计量,控制和经济利益,可交易等问题。

热门回复

你这个前提就不成立,数据的价值主要不是什么信息不对称,而是数据综合到一起后产生的多变量统计控制潜力,如果你学过统计模型等多变量分析方法,你就能知道,统计分析本质就是一种假设检验,是基于概率论来做对照实验,对照实验是近代以来实证主义科技能够飞跃的研究方法核心,多变量的统计模型,将更多变量纳入同一个数据库后,才可以统计控制更多变量,分解出每一个因素对目标变量的影响系数,人类对各种相关关系、因果关系的认识才会更加可靠深入。
生成式ai则是更加先进的数据模式洞察工具,传统统计分析基本上是分析结构化数据,数据分析之前需要进行大量的数据搜集、数据清洗工作,而这个世界上99%以上的数据都是非结构化的,传统统计模型对此无能为力。
现在,有了生成式ai这个超级武器,我们突然有办法分析总结非结构化数据中隐藏的模式、经验、知识和规律了。
传统的多变量统计分析工具,分析结构化数据后,会给出一个多参数的方程,每个参数前面不同系数代表其对目标变量的影响权重,我们以为,各个领域的规律都可以这样总结成一个多参数的等式,但生成式ai表明,很多非结构化数据中隐藏的模式,用公式无法总结,但用一个几百G或更大体积的ai大模型,却有可能总结。
最近十年,深度学习算法带来的重大突破,最根源的,可能不是算法的进步,而是由于智能手机和4G5G网络技术的普及,带来了数据规模增加了几个数量级,ai算法突然有了更大得多的数据可用于训练,所以其表现达到了不可思议的效果。
几年前,ai科学家就发现,算法本身不需要改变,简单增加数据量,模型的准确率就能持续提升。
所以,数据的价值不在于什么信息不对称,这已经是古董想法了,在统计模型时代就不成立,在ai大模型时代更是过时了。

无知者无畏,估计概率论和统计模型都不懂。

我觉得你非常好,这个就是香农的信息商理论,信息的不确定性才是有用的,确定的信息没有意义,佛口回答你的东西完全牛唇不对马嘴,生成式的AI确实一开始很让人惊艳,但现在那么多的深层次AI大家已经无从选择了,算法这个东西又没办法专利保护,整个世界都在一大抄,数据如何运用,这是科学家的事情,但是运用这些数据的能力是没有办法保护的

数据的价值在于信息不对称性,如果越发对称了的话,数据的价值就大为降低,所以这也是数据价值本身的悖论。

啥也不懂,估计你连看人家回复都不明白

统计模型和概率论是数据分析和决策制定中非常重要的数学工具,它们在许多领域都有广泛的应用,包括经济学、生物学、工程学、社会科学等。
### 概率论
概率论是研究随机事件的数学分支。它提供了一种框架来量化不确定性和随机性。概率论的核心概念包括:
1. **随机事件**:在一定条件下,可能发生也可能不发生的事件。
2. **概率**:度量一个随机事件发生的可能性大小的数值,通常用0到1之间的实数表示。
3. **概率空间**:由样本空间、事件集合和概率测度组成的数学模型。
4. **条件概率**:在已知某些事件已经发生的条件下,另一个事件发生的概率。
5. **独立性**:两个事件的发生互不影响。
6. **随机变量**:随机事件的数值表示,可以是离散的也可以是连续的。
7. **概率分布**:描述随机变量取各种值的概率,如二项分布、正态分布等。
8. **期望值**:随机变量的平均值或期望值。
9. **方差和标准差**:衡量随机变量的离散程度。
概率论的应用非常广泛,它可以帮助我们理解和预测随机现象,进行风险评估,以及做出基于概率的决策。
### 统计模型
统计模型是应用统计学方法来分析和解释数据的数学模型。它们通常用于推断、预测和决策。统计模型的关键要素包括:
1. **参数**:模型中的未知量,需要通过数据来估计。
2. **估计**:使用数据来估计模型参数的过程。
3. **假设检验**:基于数据来检验关于参数的假设是否成立。
4. **模型选择**:选择最适合数据的统计模型。
5. **预测**:使用模型来预测未来或未知的数据。
6. **模型评估**:评估模型的拟合优度和预测能力。
7. **回归分析**:一种统计模型,用于分析变量之间的关系,如线性回归、逻辑回归等。
8. **分类和聚类**:分类模型用于将数据分为不同的类别,聚类模型用于将数据分组,使得同一组内的数据尽可能相似。
9. **时间序列分析**:分析时间序列数据的统计方法,用于预测和趋势分析。
10. **贝叶斯统计**:基于贝叶斯定理的统计方法,考虑了先验知识和不确定性。
统计模型的建立和应用可以帮助我们从数据中提取信息,进行预测和决策,以及理解数据背后的模式和关系。
### 统计模型和概率论的关系
统计模型和概率论紧密相关。概率论提供了统计模型的理论基础,而统计模型则是概率论在实际问题中的应用。在建立统计模型时,我们通常假设数据遵循某种概率分布,然后使用概率论的工具来估计参数、进行假设检验和预测。同时,概率论中的一些概念,如条件概率、期望值和方差,也是理解和分析统计模型的关键。
总之,统计模型和概率论是理解和处理不确定性的强大工具,它们在科学研究、工业生产、经济管理等领域都有着不可替代的作用。

这几篇刷新了认知,莫事多读书,谢谢

不确定是客观的度量,有用是人类主观的度量,要求从不确定中提取确定性。

信息论的不确定性只是信息的一个度量,并不是信息有用的度量。有用的当然是确定性高的。比如一张随机的图片,包含的信息虽然很多(不可压缩),但没什么用,从人类的角度,提取确定性(可压缩成标签)才是信息处理的目标。

数据有用途,也就是有使用价值,这是无疑的。但是它要进入到会计报表里面的进行价值的确认计量核算的话,它还有许多的路途要走。
这个也是比较前沿的,新的研究的方向。
海量的数据通过一定的模型来用的话,确实可以产生很大的价值,这个价值不是说要产生什么有形的东西,而是它赋予了产生价值的效率提升和路径的节约,以及一些新的奇思妙想的产生。
当然则性还是它的使用的价值,要成为数据的资产的话,那还有许多东西的规范。