business_NLP业务总览
陶恒franz
2022-11-13
NLP业务总览
机器学习与优化理论基础
凸优化基础
判定凸集,以及凸函数
线性规划与二次规划
拉格朗日与对偶函数
Strong Duality与KKT条件
Non-convex优化问题
NP-Hard问题与松弛化处理
Discrete Optimization
GD, SGD, Adam, Adagrad
L-BFGS, ADMM
机器学习基础
生成模型与判别模型
最大似然与最大后验估计
模型的过拟合
各类不同的正则(L1, L2, L0)
各类启发式算法(遗传算法、贝叶斯优化等)
随机森林与XGBoost
SVM与Dual SVM
Kernel Trick与设计核函数
work
利用WMD计算文本之间的相似度
利用Sparse QP设计资产组合策略
利用随机规划(SP)来解决库存优化
利用线性规划解决运输问题
利用松弛化解决整数问题
文本之间的相似度
语言模型与序列标注
文本处理技术与语言模型
最大匹配算法与Jieba技术剖析
SkipGram与负采样
CBOW, Glove, MF
Noisy Channel Model
N-Gram模型与各类平滑技术
NNLM
序列模型与条件随机场
EM算法与GMM
有向图与无向图
条件独立、D-separation
HMM模型、Viterbi以及参数估计
MEMM与Label Bias问题
Log-Linear模型与逻辑回归
Linear-CRF与参数估计
work
拼写纠错系统的搭建
智能问答系统的搭建
Linear-CRF的从零实现
基于CRF, LSTM-CRF的NER识别
预训练模型
递归神经网络与注意力机制
分布式表示的优点
RNN与梯度问题
LSTM, GRU与BI-LSTM
Seq2Seq与注意力机制
Beam Search
BI-LSTM-CRF模型
ELMo与Transformer
上下文有关词向量的学习
NLU中的层次表示
Deep BI-LSTM与ELMo
Bottleneck问题与长依赖问题
Self-Attention,Multi-head Attention
Transformer与Transformer-XL
BERT与ALBERT
Autoencoder与DAE
MLM语言模型
BERT模型
BERT-BiLSTM-CRF
ALBERT模型
GPT2模型
XLNet与其他预训练模型
AR语言模型
Permutation语言模型
Two-Stream Attention
XLNet模型
Roberta
Q-Bert,VI-Bert
其他模型(TBD)
work
基于Seq2Seq+注意力机制的机器翻译系统
基于Transformer的机器翻译系
基于BERT-BiLSTM-CRF的NER识别
XLNet的从零实现
transformer
信息抽取与图神经网络
信息抽取与知识图谱
NE的抽取与识别
基于规则的关系抽取技术
基于无监督、半监督的关系抽取
实体统一、实体消歧、指代消解
知识图谱、实体与关系
知识图谱中的推理
知识浅入与图神经网络
TransE,NTN,Node2Vec模型
SDNE模型
带属性的网络嵌入
Graph Neural Network
CNN与Graph CNN
Dynamic Graph的处理
BERT与KG的结合
work
基于非结构化数据搭建知识图谱
基于知识图谱的大数据风控
基于医疗知识图谱的诊断
基于GNN的Combinatorial优化
基于信息抽取与DL的NL2SQL
对话系统与文本摘要
对话系统
智能问答与对话系统
基于检索的对话系统
基于生成式的对话管理
意图识别与有限状态机
基于任务式的对话系统
基于增强学习的对话系统
多轮对话的挑战
文本摘要
Abstractive vs Extractive
基于模板的文本摘要生成
基于Seq2Seq的文本摘要生成
ROUGE与Blue
Hierarhical Attention
Pointer-Generator Network
Beam Search的改造
Levenshtein Transformer
MASS
work
基于任务导向的订票管理
基于Pointer-Generation Network的文本生成
基于增强学习的对话系统剖析
模型压缩与其他前沿主题
模型压缩
嵌入式设备中的模型压缩
基于Sparsity的模型压缩
基于矩阵分解的模型压缩
基于蒸馏方法的模型压缩
BERT、Transformer的压缩
贝叶斯模型
MLE、MAP、Bayesian模型区别
Dropout与Bayesian Approximation
PGM与主题模型
吉布斯采样、变分法
SGDL与SVI
分布式吉布斯采样
可视化与低资源学习
深度学习中的可视化技术
RNN、LSTM的可视化
Layer-wise Relevance Propagation
Cross-Domain语言学习
Transfer Learning
One-shot Learning
work
利用Laywer-wise RP可视化端到端的机器翻译系统
基于吉布斯采样的N-Gram LDA模型实现
基于Bayesian-LSTM的命名实体识别
其他分类
https://mp.weixin.qq.com/s/uu0TvrJXmEIPtRItx4Fnwg
数据集
https://mp.weixin.qq.com/s/77RK6mKtpy9B_EEz3aUqTg
智源指数(CUGE,Chinese Language Understanding and Generation Evaluation)
https://mp.weixin.qq.com/s/bn78MQ2SYNCJz5QjrQXMCg
竞赛中的文本相似性
token-pair
HB-TB:头实体的开始token 与 尾实体的开始token 进行连接。
HB-TE:头实体的开始token 与 尾实体的结束token 进行连接。
HE-TE:头实体的结束token 与 尾实体的结束token 进行连接。
Created With
MindMaster