franztao

Talk is cheap, show me the code.

《复盘-对过去的事情做思维演练》读书笔记

2022年01月

书本封面 读书笔记 一、什么是复盘 所谓复盘,通过事后重现整个过程,重新审视、思考事件中的行为和思维,从而发现问题,吸取经验,找到根源,总结规律,最终实现能力提升。 复盘的组成,回顾、反思、探究、提升,一个都不能少。 二、为什么复盘 复盘可以帮助我们避免犯同样的错误,固化流程、校验方向,认清问题背后的问题,发现和产生新的想法与知识。除了提升问题之外,它还对提升个人品性和组织性...

每月学习笔记

2021年12月

PET 的可行性: 直接利用现成的 MLM 模型效果如何?(零样本学习1) 用“大量无标签数据”微调现成的 MLM 模型效果如何?(零样本学习2) 用“小量标签数据”微调现成的 MLM 模型效果如何?(小样本学习) 用“小量标签数据+大量无标签数据”微调现成的MLM模型效果如何?(半监督学习) 聚类算法对比 不同的聚类算法有不同的应...

Reinforcement Learning:Dynamic Programming

2022年10月

Background 本小节介绍动态规划的主要目的是通过动态规划来求解得到最优策略$\pi^\ast$,从而使得价值函数最高。当然上一小节中我们已经证明了,最优策略对应的就是最优价值函数。求解方法基本上就是从两个角度出发,1. 策略迭代,2. 价值迭代。 策略迭代可以分成两步,策略评估和策略改进。策略改进为即固定价值函数,并且找到在该价值函数下的最优策略,也就是估计策略评估得出的$V^\...

Reinforcement_Learning_Markov_Decision_Process

2022年10月

Background Reinforcement Learning是一个比较成熟的学科,有着比较扎实的理论基础,同时也是我觉得深度学习中比较难的一个分支。强化学习主要是围绕马尔可夫决策过程(Markov Decision Process,MDP)来进行的。强化学习不同的流派使用的符号是不一样的,而我们这里和强化学习经典之作Sutton的“An introduction to reinfor...

系列33 Flow Model

2022年10月

Introduction 在上一小节中讲到了Latent Variable Model(LAM),VAE。其主要思想就是将隐变量扩充为高维连续的分布,来增强模型的表达能力。而LAM模型中的核心困难是$P(X)$计算不出来,因为$P(X) = \int_Z P(X Z)P(Z) dZ$,而$Z$的维度过高$P(X)$算不出来。而根据Bayesian公...

系列31 GAN 3-Generative Adversarial Network 全局最优解

2022年10月

全局最优解 GAN模型表示汇总如下所示: $P_{data}$:${x_i}_{i=1}^N$ $P_g(x;\theta_g)$:generator,$G(z;\theta_g)$ $y x$:discriminater,$P(y=1 x)=D(x)$,$P(y=0 x)=1-D(x)$ $G...

系列31 GAN 2-Generative Adversarial Network 数学描述

2022年10月

数学语言描述 模型表示 工艺大师和鉴赏专家的水平会不断的提高,最终我们会培养一个高水平的工艺大师和一个高水平的鉴赏家。而最终的目的是培养一个高水平的工艺大师,而不是一个高水平的鉴赏家。鉴赏家只是衍生品,最终将达到两个目的,1. 足够的以假乱真;2. 真正的专家看不出来。 所以,我们需要加一些feedback,令工艺大师收到专家给出的反馈。并且鉴赏大师也要从工艺大师那里知道真实的情况来提...

系列31 GAN 1-什么是 Generative Adversarial Network

2022年10月

什么是Generative Adversarial Network? 首先,我们需要充分的了解什么是生成对抗网络(Generative Adversarial Network,GAN)?顾名思义,首先它是一种生成模型,它的核心是对样本数据建模。下面我们将举个例子来详细的说明一下什么是GAN。 首先,我是一个收藏家,我有很多的宝贝,但是,我最终的目标不仅仅是一个收藏家。我想高仿东西,成为工...

系列30 生成模型6-重参数技巧

2022年10月

Stochastic Back Propagation (Reparametrization Trick) 本章主要介绍的是,神经网络用$Y=f(X;\theta)$函数逼近器,那么我们将想想神经网络和概率图模型之间有什么关系呢?能不能用NN去逼近一个概率分布$P(X)$呢?把他们两结合到一起就是随机后向传播,或者称之为重参数技巧。 正常情况下简单举例 假设$P(Y)$是目标分布,其中...

系列30 生成模型5-概率图vs神经网络

2022年10月

概率图 vs 神经网络 概率图模型和神经网络之间并不是一个非黑即白的区别,它们之间有区别也有联系,但是很多部分同学都搞不清他们之间的区别。 首先我认为他们的核心区别在于,- 概率图模型是$P(X)$的表示,神经网络即时一个函数逼近器,对于一个输入的$X$,得到输出的$Y$,中间的部分都是权重。所以,他们两压根不是一个东西,概率图模式是对$P(X)$来建模,典型的概率生成模型。 概率图模...