首页>课程更新>请注意,前方高能视频来袭,《人工智能》第10-15阶段更新

请注意,前方高能视频来袭,《人工智能》第10-15阶段更新

人工智能全系列

 

本次更新内容为人工智能第十十五阶段

 

第十阶段:概率图模型算法

 阶段概述:本阶段讲解,贝叶斯分类算法、隐含马尔可夫模型、最大熵模型、条件随机场。

达成目标:通过本阶段学习,掌握NLP自然语言处理的一些基本算法,本阶段的理解对于后续完成NLP大项目很重要。

 

章节1_贝叶斯分类

01_朴素贝叶斯分类算法

02_TF-IDF

03_NB代码实现解析

04_sklearn中调用NB_顺便讲解了GridSearchCV

05_语言模型的设计目的_MLE的作用进行参数估计

06_贝叶斯网络_马尔可夫链


章节2_HMM算法

07_HMM隐马的定义

08_HMM隐马的三组参数_三个基本问题

09_HMM预测问题使用前向算法

10_HMM预测问题使用维特比算法

11_HMM复习_明确概率计算问题要解决的目标

12_前向算法来解决概率计算问题

13_Viterbi算法案例详解

14_Viterbi算法代码实现

 

章节3_CRF算法

15_NER与分词和POS的关系_NER的标注策略_NER的主要方法

16_讲解了一下常见的深度学习LSTM+CRF的网络拓扑

17_了解CRF层添加的好处

18_EmissionScore_TransitionScore

19_CRF的目标函数

20_计算CRF真实路径的分数

21_计算CRF所有可能路径的总分数

22_通过模型来预测新的句子的序列标签

 

十一阶段深度学习原理到进阶实战

阶段概述:本阶段讲解,神经网络算法、Back Propagation反向传播推导、TensorFlow框架、TensorBoard模块。

达成目标:通过本阶段学习,开启深度学习之旅,深入理解神经网络算法及其优化算法,掌握TensorFlow开发流程,通过实现神经网络完成回归和分类任务。TensorFlow框架学好了,其它深度学习框架比如Keras、PyTorch掌握起来易如反掌。

 

章节1_神经网络算法

01_神经网络是有监督的算法_生物神经元到人工神经元

02_三种常见的激活函数_网络拓扑介绍_优化算法

03_单层神经网络正向传播计算过程_用神经网络理解逻辑回归做多分类

04_用神经网络理解Softmax回归

05_隐藏层的意义_隐藏层相当于去做预处理_升维降维

06_多节点网络输出_sklearn中NN模块的介绍

07_sklearn中NN模型的代码使用

08_隐藏层激活函数必须是非线性的

09_tensorflow概要_conda创建虚拟环境_CPU版本的tensorflow安装

 

章节2_TensorFlow深度学习工具

10_CUDA下载地址_CUDA显卡白名单地址

11_CUDA安装_cudnn安装_环境变量配置_检验是否安装成功

12_Tensorflow代码运行机制_TF基础的代码

13_TF实现线性回归解析解的方式_TF实现线性回归梯度下降的方式

14_TF实现线性回归BGD的方式_使用Optimizer_每轮打乱数据

15_TF实现Softmax回归来识别MNIST手写数字

16_TF实现DNN来识别MNIST手写数字

 

章节3_反向传播推导_Python代码实现神经网络

17_反向传播_链式求导法则

18_反向传播推导(一)

19_反向传播推导(二)从输出层到最后一个隐藏层

20_反向传播推导(三)从输出层到最后一个隐藏层Softmax多分类为例

21_反向传播推导(四)关于Δ和a还有梯度的更新事宜

22_python实现神经网络训练代码讲解(一)

23_python实现神经网络正向反向传播训练

 

十二阶段_图像识别原理到进阶实战

阶段概述:本阶段讲解,卷积神经网络、深度神经网络的问题和优化手段、经典卷积神经网络模型、OpenCV模块、目标检测算法原理与实战。

达成目标:通过本阶段学习,深入透彻的掌握图像识别领域深度学习的原理和应用。通过知识点的讲解,辅助论文讲解和源码的剖析,让同学可以了解网络的底层架构原理和代码,此阶段对后期面试图像识别领域岗位是重中之重,值得多花心思反复研究。

 

章节1_卷积神经网络原理

01_回顾深度神经网络_卷积层是局部连接

02_单通道卷积的计算

03_彩色图片卷积的计算

04_卷积层权值共享

05_卷积的补充与Padding填充模式

06_卷积的计算TF中的API操作与参数

07_池化的概念和TF中的API的操作与参数

08_经典的CNN架构和LeNet5

 

章节2_卷积神经网络优化

09_AlexNet网络结构_连续使用小的卷积核好处

10_Dropout技术点思想和运用

11_数据增强技术点_CNN对MNIST数据集分类_卷积池化代码

12_CNN对MNIST数据集分类_全连接层以及训练代码

13_深度学习网络对应ACC准确率忽然下降的思考点

14_减轻梯度消失问题中激活函数发挥的作用

15_减轻梯度消失问题中参数初始化发挥的作用

16_VGG网络结构_以及1乘1的卷积核的作用和好处

17_Optimizer_SGD_Momentum

18_Optimizer_Adagrad_Adadelta_RMSprop

19_Optimizer_Adam

 

章节3_经典卷积网络算法

20_Keras介绍_以及不同项目调用不同的python环境和CUDA环境

21_VGG16_Fine-tuning_对MNIST做手写数字识别

22_InceptionV1_V2

23_InceptionV3_以及InceptionV3对皮肤癌图片识别

24_ResNet残差单元_BottlenetBlocK

25_DenseNet和Keras里面的实现

26_DenseNet在Keras里面的代码实现

27_BatchNormalization

28_Mobilenet网络架构

 

章节4_古典目标检测

29_图像识别任务_古典目标检测

30_使用OpenCV调用分类器找到目标框

31_IOU以及python计算的代码

32_R-CNN和SPP-net

33_从FastRCNN引入FasterRCNN

 

章节5_现代目标检测之FasterRCNN

34_回顾RCNN_SPPnet_Fast-RCNN

35_FasterRNN的核心RPN_正向传播的框过滤_NMS

36_NMS代码实现流程_mAP目标检测平均指标

37_FasterRCNN论文讲解_从介绍到RPN的loss

38_FasterRCNN论文讲解_从RPN损失到评估指标对比

 

章节6_现代目标检测之Yolo

39_yoloV1基本原理

40_yoloV1_loss讲解

41_小结

42_yoloV2改进之处

43_yoloV3讲解

44_代码下载-目录结构

45_yoloV3代码讲解

 

章节7_上采样_双线性插值_转置卷积

46_前言

47.上采样_repeat

48.线性插值

49_双线性插值

50_转置卷积_以及TF的API

51_双线性插值作为转置卷积核的初始参数

52_ROI Align

53_FPN思想与网络结构

54_FPN应用于FasterRCNN_ResNetFPN

 

十三阶段_图像识别项目

 

章节4_人脸识别

36_人脸识别任务种类_具体做法思路

37_开源的FaceNet项目介绍

38_人脸识别项目代码整体结构

39_MTCNN论文_摘要和介绍

40_MTCNN论文_网络整体架构

41_PRelu_每阶段输出多分支意义

42_每一个阶段每个分支的Loss损失_整合每个分支的Loss

43_训练数据的准备_每一阶段训练的流程

44_总结MTCNN_缩放因子_注意3阶段网络里面的全连接

45_人脸识别项目代码_加载MTCNN模型

46_人脸识别项目代码_读取图片带入MTCNN网络给出人脸候选框

47_FaceNet论文_摘要和前情介绍

48_FaceNet论文_相关的介绍

49_FaceNet论文_TripleLoss思路来源和目标

50_FaceNet论文_TripleLoss损失函数

51_FaceNet论文_TripleSelection很至关重要

52_FaceNet论文_ZF和Inception对比_总结

53_人脸识别项目代码_FaceNet模型加载和使用

54_人脸识别项目代码_人脸匹配以及最后的绘图展示

 

章节5_医疗图像UNet语义分割

55_语义分割的基本概念

56_FCN全卷积网络做语义分割

57_UNet网络结构

58_UNet网络医疗图像的语义分割

 

章节6_蒙版弹幕MaskRCNN语义分割

59_MaskRCNN网络结构

60_MaskRCNN的项目展示

61_MaskRCNN网络架构回顾

62_MaskRCNN根据文档和论文总结重要的知识点

63_MaskRCNN项目关于运行代码环境的说明

64_MaskRCNN源码config和model

 

十四阶段_自然语言处理原理到进阶实战

阶段概述:本阶段讲解,词向量、词嵌入、RNN、LSTM、孪生网络、CNN在NLP中的应用、Attention注意力机制、Transformer、BERT。

达成目标:通过本阶段学习,掌握NLP中词的各种向量表达,从古典的Word2Vec方式到现代的BERT方式,学好这些NLP特征提取的主干网络,才能在NLP各项任务中产生好的效果。这阶段也将掌握大量NLP任务的实战开发。

 

章节1_词向量与词嵌入

01_N-gram语言模型

02_NPLM神经网络语言模型

03_词向量的作用

04_CBOW模型思想和计算过程

05_Skip-gram模型思想和计算过程

06_Huffman树_分层Softmax的思想

07_分层Softmax应用到CBOW模型上

08_负采样和负采样应用到CBOW模型上

 

章节2_循环神经网络原理与优化

09_理解RNN循环神经网络拓扑结构

10_理解RNN循环神经网络计算流程

11_利用RNN循环神经网络对MNIST手写数字识别

12_理解LSTM长短时记忆_记住Topo和公式

13_VanillaRNN的回顾复习

14_补充讲一下为什么RNN中链越长越容易梯度消失

15_LSTM的回顾复习_LSTM手写数字识别

16_双向RNN_LSTM

17_RNN里面应用的Topology结构

 

章节3_从Attention机制到Transformer

18_Seq2Seq中Attention注意力机制

19_Transformer_Self-Attention_Multi-head

20_Transformer_Positional_使用逻辑_网络结构总结

 

章节4_ELMO_BERT_GPT

21_ELMO

22_BERT理论

23_ERNIE_GPT

 

十五阶段_自然语言处理项目

 

章节1_词向量

01_回顾了词向量里面训练的Topology

02_Word2Vec项目代码_加载数据_构建字典

03_Word2Vec项目代码_构建一个个批次数据

04_Word2Vec项目代码_正向传播的Graph构建_NCE损失的计算本质

05_Word2Vec项目代码_评估比较相似度_最后的训练绘图

06_Word2Vec项目代码_总结串讲

 

章节3_AI写唐诗

15_AI写唐诗_数据的读取_字典的构建_文本的索引化

16_AI写唐诗_训练数据的构建

17_MultiRNNCell单元

18_AI写唐诗_从词嵌入到构建RNN再到输出层概率输出

19_AI写唐诗_损失的计算_梯度的求解截断和更新_最终的训练代码

20_AI写唐诗_模型的使用_增加随机性

 

章节4_Seq2Seq聊天机器人

21_从AI写唐诗到Seq2Seq再到Encoder-Decoder

22_Seq2Seq版Chatbot的数据预处理

23_Seq2Seq版Chatbot训练和模型使用

 

章节5_实战NER命名实体识别项目

24_回顾了一下CRF训练和使用过程

25_介绍了代码目录结构

26_NER代码读取数据和预处理

27_feature进入BiLSTM进行正向传播的过程

28_通过CRF层来计算Loss损失以及训练

29_BiLSTM-CRF模型的预测代码

30_CRF中的特征函数们

31_对比逻辑回归_相比HMM优势

32_补充标注偏置问题_HMM做分词代码结构

 

章节6_BERT新浪新闻10分类项目

33_BERT新浪新闻10分类项目

 

章节7_GPT2聊天机器人

34_GPT2闲聊机器人

 

 

 

另附各章节课程资料

 

 

百战程序员微信公众号

百战程序员微信小程序

©2014-2024 百战汇智(北京)科技有限公司 All Rights Reserved 北京亦庄经济开发区科创十四街 赛蒂国际工业园
网站维护:百战汇智(北京)科技有限公司
京公网安备 11011402011233号    京ICP备18060230号-3    营业执照    经营许可证:京B2-20212637