作者fragmentwing (片翼碎梦)
看板DataScience
标题Re: [讨论] cognitive model/causal ML执行的细节
时间Wed May 15 14:18:11 2024
本人ML接触资历还很菜,以下论述若有错误烦请大神帮忙指正
同为跨领域望这篇能起到抛砖引玉之效
※ 引述《Bionut (生物坚果)》之铭言:
: 想请问有经验的朋友。
: 我算是跨领域来做ML正在读博,目前的课题是把ML应用在半导体制程。
: 不知道是不是跨领域,所以思想跟老板不太一样(我自己是制程跟物理背景,老板是纯CS
: )
跟你方向相反,我是在材料底下搞ML和分析
不过跨领域沟通上同样和老板有代沟,这很正常
先提一下我这边的相处模式,基本上是同事和老板看到机台数据哪里有问题
然後group meeting或是个人meeting讨论时我想想看有没有解法
没有的话通常先放着,有的话我会和老板概述一下预估解法能带来的效果以及怎麽实行
生出来後报告时通常原理会直接跳过看处理结果(但是还是要准备原理的论述)
: 目前老板希望我的研究主题是建立模型+资料统整所有半导体制程的知识。也就是未来有
: 新的制程技术,我们的模型对於新制程的参数能给予准确的预测(就不需要工程师去tune
: 参数)老板的目标是让模型学会制程的因果关系。
: 然後我们目前(我主要负责搜集data )的资料只有十几个点,而且没有搜集不同参数对
: 应的资料。我老板想做unsupervised model(我自己是倾向supervised )。总之我怎麽
: 看都不觉得这麽少的资料点可以支持一个非常复杂的模型,其实连普通的NN我都怀疑能训
: 练起来不会overfit
: 我的结论很简单,要嘛我们做简单一点的model,要嘛噜起袖子努力去无尘室老资料(反
: 正做实验的是我)。但我这样说就被老板说他做十年资料科学,我没经验谁说少数据做不
: 起来?
我恰巧有在弄unsupervised的东西,基本上unsupervised有两种极端状况:
一个是像Meta推出的Segementation Anything Model或是之前的闽南语翻译那样
说是无监督,其实更像是标记的方式有了变体,仍然是拿着巨量的人工标记资料去做的
(这种方式精确点好像还有自监督、元监督来描述
但单纯二分法的话仍然算在无监督的范畴...吧?)
另一种则是目标单纯,比如孪生网路的目的只有一个(不讨论延伸应用的话)
就是你拿两张图片问模型它们有多像
至於两张图片内是不是同一人可以再依据这个「有多像」来判断
这种模型因为目标单一,对於资料量的要求就不多
以孪生网路来说,我在练习时看到的范例约需要400张人脸照片
另外最近有看过一个少资料分类学习的论文
资料形式是1维(128个数据点构成的曲线),大小约100~200笔(取决於分类项目)
结果是压到二分法才能在特定项目上拿出90%的准确率出来
从原po的叙述看来这个ML得提供大量制成参数却只有十几个点相当不合理
想靠增强(Augmentation)去补足也是有极限的
人家FFT的讯号采集原理都讲了你好歹要有个2倍以上才能把函数整个抓出来...扯远了
总之,既然原po老板这麽信誓旦旦说可以
那能不能请他把他生涯中遇过的少资料做复杂任务模型的案例拿出来分享一下
毕竟在这方面他相对於你是专家
: 但具体问model怎麽搭建却得不到明确的轮廓…
: 对於学物理出身的我,我对於model所谓明确的定义是指:你需要搜集什麽feature,然後
: 目标又是什麽?例如搜集薄膜厚度、半导体线宽、粗糙度…、而目标是电性(电阻、电容
: …等)
至少要知道模型的输入和输出是甚麽,例如前面提到的孪生模型
好歹也要知道输入是两张图片,输出是向量或向量间的相似度
ML再复杂,就数学上来说仍是一个函数,输入和输出是基本构成要素
: 而我的理解是,如果要model认知到一些物理特性,问进去的资料要包含各种想学习的参
: 数的变异。例如,如果要知道薄膜厚度带来的影响,喂进去的资料需要有一定的薄膜厚度
: 变异。(这是我不解的点之一,我无法理解我老板的cognitive model如何在不提供相对
: 应物理变异时,学习到对应知识,而在这项参数改变时做出预测?)
通灵。
或是你老板其实是想走强化学习,但那也只是用一个间接的方式把资料提供给模型而已。
而且我记得强化学习要练很久,根本就是ML界的猴子排序法。
: 我的想法很简单,除非给出某些人为设定的物理背景,如果资料都是在20度时搜集,模式
: 不可能知道实验改在30度时做要如何反应。
这点倒是不能说死
我们假设材料的某些性质与温度相关,比如热膨胀
虽然都蒐集20度仍然不能预测30度的状况
但是假如蒐集了15和20度的话是不是就有机会了?
: 这究竟是我的思想还停留在工程师的封闭思维,还是我老板总在异想天开?
: 同样的,我想具象化什麽知识要被学习,我老板也说不出所以然…对於我,我觉得要有明
: 确的研究目标,但我老板好像是且战且走,然後觉得这些框架不可能也不应该知道(他常
: 常呛我,如果你大概知道你要干嘛,你现在博士就可以毕业了。我OS:我还是要把实验资
: 料生出来,然後搭model啊)
: 我觉得要有模型框架我才能好好制定实验计画(不过他好像没觉得我需要搜集很多资料XD
: )
我居然能在这篇文章中看到既视感,你老板是不是把你当成他叫你做的模型了?
给的资料少少的就会自己生出来,这就是传说中的meta learning吗?(误)
: 想请问有经验的各位怎麽看?是因为我背景不一样才觉得他说的目标跟方法不科学吗?我
看你前面对ML的理解基本上都是正确的
: 觉得他的理想很好,但需要更多具体怎麽做模型,还有怎麽搜集能让模型理解的资料…)
: p.s.我们最近在向学校提交报告也被其他教授质疑,但其实我早就质疑这个计画,却一直
: 被当作不懂ML。(其他教授不是CS背景,我们是研究机构不是纯学术)
你们学校只有你老板是CS背景而且其他系也完全没有人碰ML吗?
AI大热门时代有点难想像会这样。
--
即使祂每天因人们而堕入滚烫的热水,面神也不会制造出地狱来惩罚不信仰祂的人
我们崇拜面神是出於敬佩与感谢,与生前死後诸利益得失皆无任何关系
阿面~
--
※ 发信站: 批踢踢实业坊(ptt.cc), 来自: 140.116.87.133 (台湾)
※ 文章网址: https://webptt.com/cn.aspx?n=bbs/DataScience/M.1715753897.A.2F9.html
1F:推 chang1248w: 自回归的资料是真的没有标注,gpt的Q*嘛 算是online 05/15 14:43
2F:→ chang1248w: feedback,偏向微调,和监督学习的标注有本质上的差 05/15 14:43
3F:→ chang1248w: 异 05/15 14:43
4F:→ fragmentwing: 我会觉得严格定义的无监督是不是要到AE或GAN那种模 05/15 14:57
5F:→ fragmentwing: 式 或是将来的AGI才算? 05/15 14:57
6F:→ fragmentwing: 就连siamese这种 实际上我们还是要两两一对送进去 05/15 14:57
7F:→ fragmentwing: 标签隐含在这个成对送入的模式之中 05/15 14:57
8F:推 chang1248w: 无监督预训练+一点点标签微调接在最下面的linear pro 05/15 15:23
9F:→ chang1248w: jector 也能算在无监督方法里 05/15 15:23
10F:→ chang1248w: 多模态之间的媒合应该还是得靠高质量的监督资料,如 05/15 15:24
11F:→ chang1248w: 果我漏掉今年某些文章请补充 05/15 15:24
12F:推 chang1248w: 另外你可以看一下simclr和MAE(masked auto encoder) 05/15 15:30
13F:推 Bionut: 我不是在学校,是在研究机构(公司 05/17 01:25