machineLearning

《深度学习入门-基于Python的理论与实现》

学习摘要

  1. 有兴趣可以读《计算机系统要素:从零开始构建现代计算机》
  2. 感知机是具有输入和输出的算法。
  3. 感知机将权重和偏置设定为参数
  4. 单层感知机只能表示线性空间,而多层感知机可以表示非线性空间
  5. 多层感知机可以表示计算机

《Python+Tensorflow机器学习实战》

环境搭建

wget https://mirrors.tuna.tsinghua.edu.cn/anaconda/archive/Anaconda3-5.3.0-Linux-x86_64.sh  
chmod -R a+x Anaconda3-5.3.0-Linux-x86_64.sh  
bash Anaconda3-5.3.0-Linux-x86_64.sh  
conda create -n tf-cpu tensorflow  
conda activate tf-cpu
conda deactivate tf-cpu  

《Python机器学习及实践—- 从零开始通往Kaggle竞赛之路》 – 范淼、李超

简介

  1. 监督学习和无监督学习

    监督学习关注对事物未知表现的预测,一般包括分类问题(Classification、对所在的类别进行预测)和回归问题(Regression、对连续变量进行预测)

    无监督学习倾向于对事物本身特性的分析,常用的技术包括数据降维(Dimensionality Reduction、对事物的特性进行压缩和筛选)和聚类问题(Clustering、依赖数据的相似性,把相似的数据样本划分为一个簇)等

  2. 性能:评价所完成任务质量的指标。

基础

监督学习经典模型

  1. 监督学习基本架构和流程

《机器学习算法基础》–覃秉丰

课程链接

机器学习算法基础

课程笔记

  1. 知识框架
    知识框架
  2. Anaconda安装Python及部分库
  3. 训练集-验证集-测试集
  4. 学习方式:
    1. 监督学习:用来训练带有标签的数据集
    2. 无监督学习:用来训练没有标签的数据集
    3. 半监督学习:监督学习和无监督学习结合的一种学习方式。主要是用来解决使用少量标签的数据和大量没有标签的数据进行训练和分类问题。
  5. 常见应用
    1. 回归
    2. 分类
    3. 聚类
  6. 一元线性回归
    1. 训练集-验证集-测试集
  7. 代价函数(Cost Function)
    1. 最小二乘法
    2. 相关系数
    3. 决定系数
  8. 梯度下降法(优化算法)
    1. 梯度下降法
    2. 局部最小值问题
    3. 梯度下降法求线性回归
    4. 梯度下降法求线性回归2
    5. 非凸函数使用梯度下降法可能只能获取局部最小值,线性回归是凸函数,可以使用梯度下降法
  9. 多元线性回归
    1. 多元线性回归模型
  10. 多项式回归
    1. y=c+bt+at^2(次方数可再次增加)
  11. 标准方程法
    1. 标准方程法
    2. 标准方程法
    3. 矩阵不可逆情况
    4. 梯度下降对比标准方程
  12. 特征缩放
    1. 数据归一化
    2. 均值标准化
  13. 交叉验证法
    1. 交叉验证法
  14. 拟合
    1. 拟合
    2. 防止过拟合
    3. 正则化
  15. 岭回归
    1. 岭回归
    2. 岭回归
  16. LASSO
    1. LASSO
    2. LASSO与岭回归
    3. LASSO与岭回归2
    4. LASSO与岭回归3
  17. 弹性网-2005年提出
    1. 弹性网
    2. 弹性网正则式
    3. 结合岭回归和LASSO

《Python3入门机器学习经典算法与应用》–慕课网

课程摘要

简介

  1. 弹性网正则式
  2. 机器学习学习注意点

    第2章 机器学习基础

  3. 大写字母代表矩阵,小写代表向量
  4. 数据
  5. 特征向量一般表征为列向量。行向量转置为列向量
  6. 图像,每一个像素点都是特征。特征可以抽象。
  7. 二分类和多分类:结果一个类别。
  8. 回归任务:结果是一个连续数字的值,而非一个类别
  9. 一些情况下,回归任务可以简化成分类任务,问题转化。
  10. 监督学习:主要解决分类和回归。
  11. 机器学习算法上分类:监督学习,非监督学习,半监督学习和增强学习。
  12. 监督学习
    1. 给机器的训练数据拥有“标记”或者“答案”
    2. 主要处理两大类:回归和分类
    3. 监督学习算法.png
  13. 非监督学习
    1. 给机器的训练数据没有任何“标记”或者“答案”
    2. 对没有“标记”的数据进行分类-聚类分析
    3. 对数据进行降维处理:
      1. 特征提取
      2. 特征压缩:PCA
      3. 意义:方便可视化
    4. 异常检测
  14. 半监督学习
    1. 一部分数据有“标记”或者“答案”,另一部分数据没有
    2. 常见:各种原因产生的标记缺失
    3. 通常使用无监督学习手段对数据做处理,之后使用监督学习手段做模型的训练和预测
  15. 增强学习
    1. 增强学习
  16. 批量学习和在线学习
    1. 批量学习
    2. 批量学习优缺点
    3. 在线学习
    4. 在线学习优缺点
  17. 参数学习和非参数学习
    1. 参数学习特点
    2. 非参数学习
  18. “哲学”思考
    1. 数据即算法
    2. 算法为王?
    3. 奥卡姆的剃刀—简单就是好的
    4. 没有免费的午餐定理—可以严格的数学推导出:任意两个算法,他们的期望性能是相同的!
    5. 具体到某个特定问题,有些算法可能更好。
    6. 没有一种算法,绝对比另一种算法好
    7. 脱离具体的问题,谈哪个算法好是没有意义的。
    8. 在面对一个具体问题的时候,尝试使用多重算法进行比对试验,是必要的
    9. 机器伦理学
  19. Numpy使用
    1. random、arange等接口
Damon Xiong wechat
欢迎您扫一扫上面的微信公众号,订阅我的博客!