06第六章,计算机视觉

《Computer Vision - Model Learning and Inference》笔记 第六章

计算机视觉的问题是根据视觉数据x \bold{x} x 推测现实状态w \bold{w} w 的过程

模型分为两种

根据视觉数据求现实状态概率分布P r ( w ∣ x ) Pr(\bold{w}|\bold{x}) Pr(w∣x) 的判别模型。

根据现实状态求视觉数据概率分布P r ( x ∣ w ) Pr(\bold{x}|\bold{w}) Pr(x∣w) 的生成模型。

示例1:假设 w w w和 x x x是连续的标量

判别模型:

我们设正态分布函数P r ( w ∣ x , θ ) = N o r m w [ μ , σ 2 ] Pr(w|x,\bm{\theta})=Norm_w[\mu,\sigma^2] Pr(w∣x,θ)=Normw​[μ,σ2]。其中,参数μ \mu μ 为均值,σ 2 \sigma^2 σ2 为方差。它们决定了函数的形状,代入自变量 w w w即可求得 w w w处的概率密度。

若假定均值 μ \mu μ和 x x x成线性关系 μ = ϕ 0 + ϕ 1 x \mu=\phi_0+\phi_1x μ=ϕ0​+ϕ1​x,则 P r ( w ∣ x , θ ) = N o r m w [ ϕ 0 + ϕ 1 x , σ 2 ] Pr(w|x,\bm{\theta})=Norm_w[\phi_0+\phi_1x,\sigma^2] Pr(w∣x,θ)=Normw​[ϕ0​+ϕ1​x,σ2],这种方法称为线性回归。那么模型的参数集 θ = { ϕ 0 , ϕ 1 , σ 2 } \bm{\theta}=\{\phi_0,\phi_1,\sigma^2\} θ={ ϕ0​,ϕ1​,σ2},学习算法的任务就是利用数据集 { x i , w i } i = 1 I \{x_i,w_i\}^I_{i=1} { xi​,wi​}i=1I​进行拟合,求θ \bm{\theta} θ 。求好之后推理算法的任务很简单,就是把新数据x x x 代入,求得w w w 的概率分布。

判别模型

判别模型的图像,颜色深度代表 P r ( w ∣ x ) Pr(w|x) Pr(w∣x)的大小

生成模型:

生成模型正好相反,若仍采用正态分布+线性回归,则设P r ( x ∣ w , θ ) = N o r m x [ ϕ 0 + ϕ 1 w , σ 2 ] Pr(x|w,\bm{\theta})=Norm_x[\phi_0+\phi_1w,\sigma^2] Pr(x∣w,θ)=Normx​[ϕ0​+ϕ1​w,σ2] 。同理用数据拟合求得 θ = { ϕ 0 , ϕ 1 , σ 2 } \bm{\theta}=\{\phi_0,\phi_1,\sigma^2\} θ={ ϕ0​,ϕ1​,σ2}。

假设w w w 也满足正态分布, P r ( w ) = N o r m w [ μ p , σ p 2 ] Pr(w)=Norm_w[\mu_p,\sigma_p^2] Pr(w)=Normw​[μp​,σp2​],用数据{ w i } i = 1 I \{w_i\}^I_{i=1} { wi​}i=1I​求出θ p = { μ p , σ p 2 } \bm{\theta_p}=\{\mu_p,\sigma_p^2\} θp​={ μp​,σp2​}。

求好后,推理算法用贝叶斯定理求新数据x x x 对应w w w 的概率分布:P r ( w ∣ x ) = P r ( x ∣ w ) P r ( w ) P r ( x ) Pr(w|x)=\frac{Pr(x|w)Pr(w)}{Pr(x)} Pr(w∣x)=Pr(x)Pr(x∣w)Pr(w)​

示例2:假设 x x x是连续标量, w w w是离散标量

判别模型:

因为w w w 只能取0或1,我们可以使用伯努利分布。它的唯一参数 λ \lambda λ表示 w w w取1的概率。 P r ( w = 1 ) = λ Pr(w=1)=\lambda Pr(w=1)=λ。

同示例1,我们设 λ = f ( x ) \lambda=f(x) λ=f(x)。由于概率 λ ∈ [ 0 , 1 ] \lambda\in[0,1] λ∈[0,1],我们先把x输入线性函数(结果属于R),再把结果给到sigmoid函数(结果在0和1之间):λ = B e r n w [ s i g [ ϕ 0 + ϕ 1 x ] ] = B e r n w [ 1 1 + e x p [ − ϕ 0 − ϕ 1 x ] ] ] \lambda=Bern_w[sig[\phi_0+\phi_1x]]=Bern_w[\frac{1}{1+exp[-\phi_0-\phi_1x]} ]] λ=Bernw​[sig[ϕ0​+ϕ1​x]]=Bernw​[1+exp[−ϕ0​−ϕ1​x]1​]] 这个操作称为逻辑回归。

这个模型的参数集合 θ = { ϕ 0 , ϕ 1 } \bm{\theta}=\{\phi_0,\phi_1\} θ={ ϕ0​,ϕ1​}

生成模型: 不多解释。P r ( w ∣ , θ ) = N o r m x [ μ w , σ w 2 ] Pr(w|,\bm{\theta})=Norm_x[\mu_w,\sigma_w^2] Pr(w∣,θ)=Normx​[μw​,σw2​] 由于 w w w只有2个值,可以直接写成:P r ( w = 0 ∣ , θ ) = N o r m x [ μ 0 , σ 0 2 ] Pr(w=0|,\bm{\theta})=Norm_x[\mu_0,\sigma_0^2] Pr(w=0∣,θ)=Normx​[μ0​,σ02​]P r ( w = 1 ∣ , θ ) = N o r m x [ μ 1 , σ 1 2 ] Pr(w=1|,\bm{\theta})=Norm_x[\mu_1,\sigma_1^2] Pr(w=1∣,θ)=Normx​[μ1​,σ12​] 先验概率:P r ( w ) = B e r n w [ λ p ] Pr(w)=Bern_w[\lambda_p] Pr(w)=Bernw​[λp​] 学习算法计算参数集合:θ = { μ 0 , σ 0 , μ 1 , σ 1 , λ p } \bm{\theta}=\{\mu_0,\sigma_0,\mu_1,\sigma_1,\lambda_p\} θ={ μ0​,σ0​,μ1​,σ1​,λp​} 推理算法用贝叶斯:P r ( w ∣ x ) = P r ( x ∣ w ) P r ( w ) Σ w = 0 1 P r ( x ∣ w ) P r ( w ) Pr(w|x)=\frac{Pr(x|w)Pr(w)}{\Sigma_{w=0}^1Pr(x|w)Pr(w)} Pr(w∣x)=Σw=01​Pr(x∣w)Pr(w)Pr(x∣w)Pr(w)​

隐形守护者攻略秘籍_隐形守护者全攻略_隐形守护者攻略专区 ...计算机视觉-模型学习和推理笔记 第六章 - 代码天地这是我的A-第六章-汤圆创作数据结构、算法与应用(C++描述)(第二版)第六章习题解答 - 谨 ...logback-chinese-manual/06第六章:Layouts.md at master ...审判之眼 死神的遗言 全剧情动画 第六章 part3 案情讨论 ...某某 第六章 抓人_某某__企鹅FM《你老婆掉了》六盲星_【原创小说|言情小说】_晋江文学城 ...【电气与自动化】06第六章 电工测量与安全用电 - jz.docin ...测量学课件 06第六章 测量误差的基本知识.ppt06第六章社会资本再生产和经济危机.pptx2021-06-28 第六章 输入输出管理财务管理06第六章金融证券的信用评级.pptx06_第六章 广度优先搜索(bfs)财务管理06-第六章负债.pptx06 第六章 预应力混凝土工程.pptx财务管理06 第六章 税收原理.pptx06第六章IS-LM模型复习课程.ppt06第六章我采取过哪些纠正行动.pdf06第六章 主要施工工艺和技术措施110.doc06第六章燃烧设备和煤粉燃烧新技术.pptx财务管理06第六章 外商投资企业和外国企业所得税法.pptx06_第六章项目成本管理.pptx06-第六章-ILOG-OPL-基础.pdfCoreJava(第六章06-构造器引用燃气输配06第六章燃气管网的水力工况.pptx06第六章工厂供配电系统供电负荷的计算.pdf燃气工程施工06第六章防腐层与绝热层施工.pptxjupyther_python基础系列06第六章 函数 面向过程的编程06.ThreeJs开发指南-第六章-高级几何体
06第六章 非寿险准备金评估第六十一章第六十三章第六十四章第六十七章第六十八章第五十六章第二十三章第238章第二十四章第五十七章05一1元小零食的批发0789冰雪城堡积木介绍015放血04伤寒论关于六经辩证的若干问题019被吃了心脏的阮嫂一0350易经第五十卦火风鼎07款福克斯两厢18at档位开关在哪里072澡堂老板j的男人们1995云资源020是哪个地方的区号028要干也是我干钢铁加工制品都包括什么戴尔电话人工服务电话网络用语kJ是什么意思kJ出自哪里kj什么意思kj和kcal的区别04日影海猫自压特典063人妖现身喜马拉雅荔枝被苹果下架遭恶意刷榜FM下架大起底没有输卵管会怀孕吗吗切除输卵管对女性的影响05款24雅阁二手车价格08年8代雅阁值得买吗