《人工智能全系列》
本次更新内容为人工智能第十到十五阶段:
阶段概述:本阶段讲解,贝叶斯分类算法、隐含马尔可夫模型、最大熵模型、条件随机场。
达成目标:通过本阶段学习,掌握NLP自然语言处理的一些基本算法,本阶段的理解对于后续完成NLP大项目很重要。
章节1_贝叶斯分类 |
01_朴素贝叶斯分类算法 |
02_TF-IDF |
03_NB代码实现解析 |
04_sklearn中调用NB_顺便讲解了GridSearchCV |
05_语言模型的设计目的_MLE的作用进行参数估计 |
06_贝叶斯网络_马尔可夫链 |
章节2_HMM算法 |
07_HMM隐马的定义 |
08_HMM隐马的三组参数_三个基本问题 |
09_HMM预测问题使用前向算法 |
10_HMM预测问题使用维特比算法 |
11_HMM复习_明确概率计算问题要解决的目标 |
12_前向算法来解决概率计算问题 |
13_Viterbi算法案例详解 |
14_Viterbi算法代码实现 |
章节3_CRF算法 |
15_NER与分词和POS的关系_NER的标注策略_NER的主要方法 |
16_讲解了一下常见的深度学习LSTM+CRF的网络拓扑 |
17_了解CRF层添加的好处 |
18_EmissionScore_TransitionScore |
19_CRF的目标函数 |
20_计算CRF真实路径的分数 |
21_计算CRF所有可能路径的总分数 |
22_通过模型来预测新的句子的序列标签 |
第十一阶段:深度学习原理到进阶实战
阶段概述:本阶段讲解,神经网络算法、Back Propagation反向传播推导、TensorFlow框架、TensorBoard模块。
达成目标:通过本阶段学习,开启深度学习之旅,深入理解神经网络算法及其优化算法,掌握TensorFlow开发流程,通过实现神经网络完成回归和分类任务。TensorFlow框架学好了,其它深度学习框架比如Keras、PyTorch掌握起来易如反掌。
章节1_神经网络算法 |
01_神经网络是有监督的算法_生物神经元到人工神经元 |
02_三种常见的激活函数_网络拓扑介绍_优化算法 |
03_单层神经网络正向传播计算过程_用神经网络理解逻辑回归做多分类 |
04_用神经网络理解Softmax回归 |
05_隐藏层的意义_隐藏层相当于去做预处理_升维降维 |
06_多节点网络输出_sklearn中NN模块的介绍 |
07_sklearn中NN模型的代码使用 |
08_隐藏层激活函数必须是非线性的 |
09_tensorflow概要_conda创建虚拟环境_CPU版本的tensorflow安装 |
章节2_TensorFlow深度学习工具 |
10_CUDA下载地址_CUDA显卡白名单地址 |
11_CUDA安装_cudnn安装_环境变量配置_检验是否安装成功 |
12_Tensorflow代码运行机制_TF基础的代码 |
13_TF实现线性回归解析解的方式_TF实现线性回归梯度下降的方式 |
14_TF实现线性回归BGD的方式_使用Optimizer_每轮打乱数据 |
15_TF实现Softmax回归来识别MNIST手写数字 |
16_TF实现DNN来识别MNIST手写数字 |
章节3_反向传播推导_Python代码实现神经网络 |
17_反向传播_链式求导法则 |
18_反向传播推导(一) |
19_反向传播推导(二)从输出层到最后一个隐藏层 |
20_反向传播推导(三)从输出层到最后一个隐藏层Softmax多分类为例 |
21_反向传播推导(四)关于Δ和a还有梯度的更新事宜 |
22_python实现神经网络训练代码讲解(一) |
23_python实现神经网络正向反向传播训练 |
第十二阶段_图像识别原理到进阶实战
阶段概述:本阶段讲解,卷积神经网络、深度神经网络的问题和优化手段、经典卷积神经网络模型、OpenCV模块、目标检测算法原理与实战。
达成目标:通过本阶段学习,深入透彻的掌握图像识别领域深度学习的原理和应用。通过知识点的讲解,辅助论文讲解和源码的剖析,让同学可以了解网络的底层架构原理和代码,此阶段对后期面试图像识别领域岗位是重中之重,值得多花心思反复研究。
章节1_卷积神经网络原理 |
01_回顾深度神经网络_卷积层是局部连接 |
02_单通道卷积的计算 |
03_彩色图片卷积的计算 |
04_卷积层权值共享 |
05_卷积的补充与Padding填充模式 |
06_卷积的计算TF中的API操作与参数 |
07_池化的概念和TF中的API的操作与参数 |
08_经典的CNN架构和LeNet5 |
章节2_卷积神经网络优化 |
09_AlexNet网络结构_连续使用小的卷积核好处 |
10_Dropout技术点思想和运用 |
11_数据增强技术点_CNN对MNIST数据集分类_卷积池化代码 |
12_CNN对MNIST数据集分类_全连接层以及训练代码 |
13_深度学习网络对应ACC准确率忽然下降的思考点 |
14_减轻梯度消失问题中激活函数发挥的作用 |
15_减轻梯度消失问题中参数初始化发挥的作用 |
16_VGG网络结构_以及1乘1的卷积核的作用和好处 |
17_Optimizer_SGD_Momentum |
18_Optimizer_Adagrad_Adadelta_RMSprop |
19_Optimizer_Adam |
章节3_经典卷积网络算法 |
20_Keras介绍_以及不同项目调用不同的python环境和CUDA环境 |
21_VGG16_Fine-tuning_对MNIST做手写数字识别 |
22_InceptionV1_V2 |
23_InceptionV3_以及InceptionV3对皮肤癌图片识别 |
24_ResNet残差单元_BottlenetBlocK |
25_DenseNet和Keras里面的实现 |
26_DenseNet在Keras里面的代码实现 |
27_BatchNormalization |
28_Mobilenet网络架构 |
章节4_古典目标检测 |
29_图像识别任务_古典目标检测 |
30_使用OpenCV调用分类器找到目标框 |
31_IOU以及python计算的代码 |
32_R-CNN和SPP-net |
33_从FastRCNN引入FasterRCNN |
章节5_现代目标检测之FasterRCNN |
34_回顾RCNN_SPPnet_Fast-RCNN |
35_FasterRNN的核心RPN_正向传播的框过滤_NMS |
36_NMS代码实现流程_mAP目标检测平均指标 |
37_FasterRCNN论文讲解_从介绍到RPN的loss |
38_FasterRCNN论文讲解_从RPN损失到评估指标对比 |
章节6_现代目标检测之Yolo |
39_yoloV1基本原理 |
40_yoloV1_loss讲解 |
41_小结 |
42_yoloV2改进之处 |
43_yoloV3讲解 |
44_代码下载-目录结构 |
45_yoloV3代码讲解 |
章节7_上采样_双线性插值_转置卷积 |
46_前言 |
47.上采样_repeat |
48.线性插值 |
49_双线性插值 |
50_转置卷积_以及TF的API |
51_双线性插值作为转置卷积核的初始参数 |
52_ROI Align |
53_FPN思想与网络结构 |
54_FPN应用于FasterRCNN_ResNetFPN |
第十三阶段_图像识别项目
章节4_人脸识别 |
36_人脸识别任务种类_具体做法思路 |
37_开源的FaceNet项目介绍 |
38_人脸识别项目代码整体结构 |
39_MTCNN论文_摘要和介绍 |
40_MTCNN论文_网络整体架构 |
41_PRelu_每阶段输出多分支意义 |
42_每一个阶段每个分支的Loss损失_整合每个分支的Loss |
43_训练数据的准备_每一阶段训练的流程 |
44_总结MTCNN_缩放因子_注意3阶段网络里面的全连接 |
45_人脸识别项目代码_加载MTCNN模型 |
46_人脸识别项目代码_读取图片带入MTCNN网络给出人脸候选框 |
47_FaceNet论文_摘要和前情介绍 |
48_FaceNet论文_相关的介绍 |
49_FaceNet论文_TripleLoss思路来源和目标 |
50_FaceNet论文_TripleLoss损失函数 |
51_FaceNet论文_TripleSelection很至关重要 |
52_FaceNet论文_ZF和Inception对比_总结 |
53_人脸识别项目代码_FaceNet模型加载和使用 |
54_人脸识别项目代码_人脸匹配以及最后的绘图展示 |
章节5_医疗图像UNet语义分割 |
55_语义分割的基本概念 |
56_FCN全卷积网络做语义分割 |
57_UNet网络结构 |
58_UNet网络医疗图像的语义分割 |
章节6_蒙版弹幕MaskRCNN语义分割 |
59_MaskRCNN网络结构 |
60_MaskRCNN的项目展示 |
61_MaskRCNN网络架构回顾 |
62_MaskRCNN根据文档和论文总结重要的知识点 |
63_MaskRCNN项目关于运行代码环境的说明 |
64_MaskRCNN源码config和model |
第十四阶段_自然语言处理原理到进阶实战
阶段概述:本阶段讲解,词向量、词嵌入、RNN、LSTM、孪生网络、CNN在NLP中的应用、Attention注意力机制、Transformer、BERT。
达成目标:通过本阶段学习,掌握NLP中词的各种向量表达,从古典的Word2Vec方式到现代的BERT方式,学好这些NLP特征提取的主干网络,才能在NLP各项任务中产生好的效果。这阶段也将掌握大量NLP任务的实战开发。
章节1_词向量与词嵌入 |
01_N-gram语言模型 |
02_NPLM神经网络语言模型 |
03_词向量的作用 |
04_CBOW模型思想和计算过程 |
05_Skip-gram模型思想和计算过程 |
06_Huffman树_分层Softmax的思想 |
07_分层Softmax应用到CBOW模型上 |
08_负采样和负采样应用到CBOW模型上 |
章节2_循环神经网络原理与优化 |
09_理解RNN循环神经网络拓扑结构 |
10_理解RNN循环神经网络计算流程 |
11_利用RNN循环神经网络对MNIST手写数字识别 |
12_理解LSTM长短时记忆_记住Topo和公式 |
13_VanillaRNN的回顾复习 |
14_补充讲一下为什么RNN中链越长越容易梯度消失 |
15_LSTM的回顾复习_LSTM手写数字识别 |
16_双向RNN_LSTM |
17_RNN里面应用的Topology结构 |
章节3_从Attention机制到Transformer |
18_Seq2Seq中Attention注意力机制 |
19_Transformer_Self-Attention_Multi-head |
20_Transformer_Positional_使用逻辑_网络结构总结 |
章节4_ELMO_BERT_GPT |
21_ELMO |
22_BERT理论 |
23_ERNIE_GPT |
第十五阶段_自然语言处理项目
章节1_词向量 |
01_回顾了词向量里面训练的Topology |
02_Word2Vec项目代码_加载数据_构建字典 |
03_Word2Vec项目代码_构建一个个批次数据 |
04_Word2Vec项目代码_正向传播的Graph构建_NCE损失的计算本质 |
05_Word2Vec项目代码_评估比较相似度_最后的训练绘图 |
06_Word2Vec项目代码_总结串讲 |
章节3_AI写唐诗 |
15_AI写唐诗_数据的读取_字典的构建_文本的索引化 |
16_AI写唐诗_训练数据的构建 |
17_MultiRNNCell单元 |
18_AI写唐诗_从词嵌入到构建RNN再到输出层概率输出 |
19_AI写唐诗_损失的计算_梯度的求解截断和更新_最终的训练代码 |
20_AI写唐诗_模型的使用_增加随机性 |
章节4_Seq2Seq聊天机器人 |
21_从AI写唐诗到Seq2Seq再到Encoder-Decoder |
22_Seq2Seq版Chatbot的数据预处理 |
23_Seq2Seq版Chatbot训练和模型使用 |
章节5_实战NER命名实体识别项目 |
24_回顾了一下CRF训练和使用过程 |
25_介绍了代码目录结构 |
26_NER代码读取数据和预处理 |
27_feature进入BiLSTM进行正向传播的过程 |
28_通过CRF层来计算Loss损失以及训练 |
29_BiLSTM-CRF模型的预测代码 |
30_CRF中的特征函数们 |
31_对比逻辑回归_相比HMM优势 |
32_补充标注偏置问题_HMM做分词代码结构 |
章节6_BERT新浪新闻10分类项目 |
33_BERT新浪新闻10分类项目 |
章节7_GPT2聊天机器人 |
34_GPT2闲聊机器人 |
另附各章节课程资料