作者ctr1 (【积π】)
看板DataScience
标题[问题] Autoencoder属於监督式学习or非监督式学
时间Mon May 31 14:03:13 2021
图像瑕疵检测常常遇到都只有正常的资料
异常的资料非常少
所以会使用autoencoder的方法(或有更好的方法)
资讯上都写autoencoder是非监督式学习
但有个疑问
1.不需要管资料直接把所有不论好坏都去训练(因为不需要标记)
2.还是只把好的去训练就好
这样还是要先分好坏,再把好的去训练
这样不就又属於监督式学习了吗
希望前辈给点指教
感谢
--
※ 发信站: 批踢踢实业坊(ptt.cc), 来自: 118.160.183.71 (台湾)
※ 文章网址: https://webptt.com/cn.aspx?n=bbs/DataScience/M.1622440995.A.CD3.html
1F:→ SYH: garbage in garbage out. 如果丢一堆烂资料进去 最後还是无法 05/31 14:17
2F:→ SYH: 训练编码器学习到好的压缩、解压缩方式,这与有没有标记无关 05/31 14:17
3F:推 KuChanTung: 非监督式学习 而且属於一种生成模型 05/31 14:40
4F:推 yoyololicon: AE也是可以做分类啦 latent space做clustering之类的 05/31 23:07
5F:推 wtchen: AE是纯粹的浓缩再解浓缩,可以用来做分类 06/01 04:30
6F:→ wtchen: 用来当生成模型也行,训练好用decoder那一半就行 06/01 04:31
7F:→ wtchen: AE当然可以用监督式学习训练,非监督式应该也OK 06/01 04:32
8F:→ wtchen: 不过训练演算法要配合资料,没match好就是垃圾进垃圾出 06/01 04:33
9F:推 greenty: 你这个叫data preprocessing 把资料弄乾净 不叫监督式学 06/08 04:51
10F:→ greenty: 习 06/08 04:51
11F:→ greenty: garbage in = garbage out . 把垃圾清一清,跟label过的g 06/08 04:53
12F:→ greenty: ood data是不一样的事 06/08 04:53
13F:推 lobZter: 模型会去fit占多数的正常资料, 喂坏资料时, reconstruct 06/19 04:03
14F:→ lobZter: error会偏大, 就能判别是坏资料了 06/19 04:03