DataScience 板


LINE

1. 很多representation learning的论文都有提到 避免使用batch normalization 会有i nformation leaking的问题。但这点我不太了解,有没有什麽具体的例子? 2. 使用opencv, cv2.imread和cv2.imwrite 两张图(原图和储存的图)竟有差别(看起 来一样、但用我的辨识model预测结果却不同),这样是正常的吗? 3. 使用triplet loss时,我将三张图片(a, p, n),分别丢到同一model(ResNet18)产出( Ra, Rp, Rn), 以此方法进行训练发现training loss在下降,但validation loss在上升(类似overfitt ing) 反而用contrastive learning训练好的model,用triplet loss计算1个epoch(不更新), 得到更低的triplet loss。 表示triplet loss应该还没收敛(有更好的distribution) 为何会如此呢? --



※ 发信站: 批踢踢实业坊(ptt.cc), 来自: 101.10.13.42 (台湾)
※ 文章网址: https://webptt.com/cn.aspx?n=bbs/DataScience/M.1626159062.A.2E3.html
1F:→ pups003: 1. 因为normalization 会使用到整个dataset的statistics, 07/13 18:14
2F:→ pups003: 超出一个batch内的资讯 07/13 18:14
3F:→ pups003: 2. 读写有的时候会standardize, 要看文件细节检查一下 07/13 18:16
4F:→ pups003: Training based on triplet loss 通常需要特别的取样方 07/13 18:19
5F:→ pups003: 式来避免选到trivial solutions 07/13 18:19
6F:→ wang19980531: 谢谢,可以再解释一下trivial solutions的部分吗 07/14 14:46
7F:→ wang19980531: ? 07/14 14:46
8F:推 numpy: 类似避免拿到太简单的 triple,可以搜寻 (semi)hard negati 07/14 16:18
9F:→ numpy: ve mining 07/14 16:19
10F:→ followwar: batch normalization在training时只用自己的mean std 07/20 14:34
11F:→ followwar: 哪里来的超出一个batch的资讯... 07/20 14:34
12F:→ followwar: *精准一点 只用自己目前batch的mean std 07/20 14:35
13F:→ followwar: 是 intra-batch information leakage 07/20 14:37
14F:→ followwar: 因为training时mean std是整个batch算 07/20 14:39
15F:→ followwar: 可以藉由这个资讯学到sample之间的不同 07/20 14:39
16F:→ followwar: 由於contrastive learning是要学自己跟别人不一样 07/20 14:40
17F:→ followwar: BN偷偷帮助了这件事 07/20 14:41
18F:→ followwar: 所以变成model藉由BN来区分 本身并没有习得资讯 07/20 14:42
19F:推 EQQD: BN running estimate怎麽没有跨batch..... 07/20 16:10
20F:→ wang19980531: 10楼说的对吧 batch愈大愈接近整个dataset的dist 07/23 14:15
21F:→ wang19980531: ribution 07/23 14:15
22F:→ pups003: 建议去看原论文跟任何framework implementation 会比较清 07/24 23:38
23F:→ pups003: 楚 07/24 23:38
24F:推 r40491101: 2. 我很常也会遇到这个很雷的问题,检查看看是否是储存 08/01 23:11
25F:→ r40491101: 格式,如果是压缩过得,例如jpg,再读一次,去infer, 08/01 23:11
26F:→ r40491101: 结果会有些差异 08/01 23:11







like.gif 您可能会有兴趣的文章
icon.png[问题/行为] 猫晚上进房间会不会有憋尿问题
icon.pngRe: [闲聊] 选了错误的女孩成为魔法少女 XDDDDDDDDDD
icon.png[正妹] 瑞典 一张
icon.png[心得] EMS高领长版毛衣.墨小楼MC1002
icon.png[分享] 丹龙隔热纸GE55+33+22
icon.png[问题] 清洗洗衣机
icon.png[寻物] 窗台下的空间
icon.png[闲聊] 双极の女神1 木魔爵
icon.png[售车] 新竹 1997 march 1297cc 白色 四门
icon.png[讨论] 能从照片感受到摄影者心情吗
icon.png[狂贺] 贺贺贺贺 贺!岛村卯月!总选举NO.1
icon.png[难过] 羡慕白皮肤的女生
icon.png阅读文章
icon.png[黑特]
icon.png[问题] SBK S1安装於安全帽位置
icon.png[分享] 旧woo100绝版开箱!!
icon.pngRe: [无言] 关於小包卫生纸
icon.png[开箱] E5-2683V3 RX480Strix 快睿C1 简单测试
icon.png[心得] 苍の海贼龙 地狱 执行者16PT
icon.png[售车] 1999年Virage iO 1.8EXi
icon.png[心得] 挑战33 LV10 狮子座pt solo
icon.png[闲聊] 手把手教你不被桶之新手主购教学
icon.png[分享] Civic Type R 量产版官方照无预警流出
icon.png[售车] Golf 4 2.0 银色 自排
icon.png[出售] Graco提篮汽座(有底座)2000元诚可议
icon.png[问题] 请问补牙材质掉了还能再补吗?(台中半年内
icon.png[问题] 44th 单曲 生写竟然都给重复的啊啊!
icon.png[心得] 华南红卡/icash 核卡
icon.png[问题] 拔牙矫正这样正常吗
icon.png[赠送] 老莫高业 初业 102年版
icon.png[情报] 三大行动支付 本季掀战火
icon.png[宝宝] 博客来Amos水蜡笔5/1特价五折
icon.pngRe: [心得] 新鲜人一些面试分享
icon.png[心得] 苍の海贼龙 地狱 麒麟25PT
icon.pngRe: [闲聊] (君の名は。雷慎入) 君名二创漫画翻译
icon.pngRe: [闲聊] OGN中场影片:失踪人口局 (英文字幕)
icon.png[问题] 台湾大哥大4G讯号差
icon.png[出售] [全国]全新千寻侘草LED灯, 水草

请输入看板名称,例如:WOW站内搜寻

TOP