blog

首页

人工智能基础

基础

线性代数

线性空间

概率论

数理统计

最优化

目标函数

约束条件

优化方法

信息论

熵的本质:一个系统内在的混乱程度

形式逻辑

一阶谓词逻辑

机器学习

机器学习是计算机基于数据构建概率统计模型并运用模型对数据进行预测分析的学科

输入输出分类

误差

机器学习任务

线性回归

线性回归假设输出变量是若干输入变量的线性组合,并根据这一关系求解线性组合中的最优系数 \(f(x) = w^Tx = \sum_{i=0}^n w_i \cdotp x_i\) 在训练集上确定系数$w_i$时,预测输出$f(x)$和真实输出$y$之间的误差是关注的核心指标。

最小二乘法

线性回归正则化

抑制过拟合

朴素贝叶斯方法

根据训练数据计算后验概率,基于后验概率选择最佳决策

逻辑回归

逻辑回归模型是对线性回归的改进,用于解决分类问题 逻辑回归输出的是实例属于每个类别的似然概率,似然概率最大的类别就是分类结果 在一定条件下,逻辑回归模型与朴素贝叶斯分类器是等价的 多分类问题是可以通过多次二分类逻辑回归或者使用Softmax回归解决

决策树

决策树算法采用树形结构,使用层层推理来实现最终的分类。适合探索式的知识发现。

支持向量机

线性可分支持向量机通过硬间隔最大化求出划分超平面
线性支持向量机通过软间隔最大化求出划分超平面
非线性支持向量机利用核函数实现从低维原始空间到高维特征空间的转换,在高维空间上解决非线性分类问题。

常用的核函数

集成学习

分类

聚类分析

聚类分析是一种无监督学习方法,其目标是学习没有标签的训练样本,以揭示数据的内在性质和规律

距离测度

\(dist_{mk}(X_i,X_j) = (\sum^N_{n=1}|x_{in} - x_{jn}|^p)^{\frac{1}{p}}\)

欧式距离:p = 2

常用的聚类方式

应用

降维分析

主成分分析

特征选择

搜索新的特征子集和对搜索结果进行评估

人工神经网络

感知器

多层感知器 (需要重新查阅)

颈向基函数的神经网络(需要重新查阅)

自组织特征映射(需要重新查阅)

1、将高维的输入数据映射到低维空间上,起到降维作用

模糊神经网络

深度学习

深度学习实际上是具有多个隐藏层的神经网络。

深度前馈网络(需要重新查阅) [重点、重要]

网络架构的建立? 损失函数的选择? 输出单元和隐藏单元的设计? 训练误差的处理?

深度学习中的正则化(需要重新查阅) [重点、重要]

正则化就是一类通过显式设计降低泛化误差,以提升算法通用性的策略的统称。

深度学习中的正则化

深度学习中的优化问题(需要重新查阅) [重点、重要]

自编码器(需要重新查阅)

深度强学习[重点、重要]

强化学习(reinforcement learning)实质上是智能系统从环境到行为的学习过程,智能体通过与环境的互动来改善自身的行为,改善准则是使某个累计奖励函数最大化。

深度信念网络

卷积神经网络

循环神经网络

生成式对抗网络

长短期记忆网络

概率图模型

集群智能

迁移学习

知识图谱

应用场景

计算机视觉

语言处理

机器翻译