分卷阅读282
实给人感觉很奇怪……很多东西像是为了做而做,要不是之前读过简绯的paper,知道很多设计对盲人意义重大,我肯定会觉得作者脑回路清奇,做了那么多吃力不讨好的复杂设计……”
纷纷议论传进孙恒彬耳中,让他几乎喘不上气。
拉尔见势不妙,上前一步:“恒彬的初稿确实存在很多问题,对于动机描述不够全面,但你说的问题,我们在workshop那一版都进行了改进。”
拉尔的话术很巧妙。简绯的本意是说,孙恒彬连算法某些设计的动机都不清楚,抄袭嫌疑很大。但他却轻描淡写把这件事定性为“孙恒彬写paper时描述不够全面”。
但简绯早就准备好了对付他的招式:“说起这个,其实我还有个地方很不解。我刚才对比了孙恒彬的ArXiv初版和你们的workshop版本,发现这两篇虽然遣词用句和结构乍一看完全不同,但有效内容重合率高达80%,核心算法完全没有变化,这样的情况,为什么一作换了人?”
这件事拉尔早就想好了说辞,刚好简绯提到ArXiv版本存在的问题,他便顺着说下去:“因为这个idea是孙恒彬的,但是具体到实现上,我的贡献比较多。当时我把做出的结果给了恒彬,没时间写paper,才让他先写了一版上传ArXiv。不过恒彬对模型了解不够,所以那一版才会写得有点牵强。”
“所以所有的实验都是你做的?”
拉尔目光沉沉望着她。实验都是孙恒彬做的,他唯一做的事就是每周听孙恒彬汇报,转头再汇报给克里兹曼。但是如果他这么承认了,他的一作就未免有些说不过去。于是拉尔回答:“只有一部分是我做的。”
“具体是哪一部分?”
拉尔继续打太极:“每个实验我都有参与,代码是我和恒彬一起写的,不太容易区分开谁做了哪部分。”
不少人听了这话,皱起眉。写代码,两个人一起?一般就算不明确分工谁写那些功能,也要分个主次,一个人先写好另一个人检查测试吧?一起写这操作也太让人迷惑了吧?
简绯无所谓地耸了耸肩:“好吧。我对你们论文中的几个细节有点疑问,你们两个中一定有一个人能帮我解答吧?”
“是。”
拉尔看似处变不惊,拳头却悄悄捏紧。
孙恒彬已经紧张得后背都湿了,尽管会场开着超级充足的冷气。
简绯鼠标滚动,拉到拉尔paper的最后一页:“你们最后的实验结果部分,第三个数据集,成功率达到了99.97%,使用的就是在paper中提出的算法,是吗?”
“没错。”
“可是,我的实验结果证明,你们的算法是跑不出那个结果的。我还知道,想要跑出这个结果,你们的算法还需要一个很关键的修改。”
“——不可能!每一个结果都是我亲自跑出来的!”孙恒彬下意识反驳。
他怀疑简绯是在诈他们,他现在已经完全不敢小瞧这个女孩。她对朋友那么善良单纯甚至轻信,但是她面对敌人时思维周密算无遗策,如同暴风雨般毫不留情,他一万个后悔成为了她的敌人。
他敢确定她发给他的实验结果都是正确的,因为他拿到她的代码后重复了所有的实验。
女生沉着有力的声音冷酷地打碎了他的信念。
“我相信,你们的代码的确能得出这个结果,那是因为你们的代码和paper中描述的算法不一样!”
孙恒彬张了张口,挤出一句:“不可能……”
“你们的代码,预处理里第265行,在整个数据集上做了normalization,和paper中描述不符。我相信这是个bug,因为这是个非常不规范的操作,属于训练时泄露测试集信息,你们的成功率也是因此才这么高的。”
在场的人都拿出他们的笔记本电脑,不管是不是相关领域,为了吃瓜都下载了孙恒彬的代码,果然找到了简绯所说的那一处,有点基础的人一眼就能看出写得不对。
孙恒彬像被扼住呼吸,定在原地,一句话都说不出来。
然而简绯还在继续:“真正能达到将近99.97%准确率的是在神经网络中加一个batchnormalization。除此之外,还有ArXivpaper中提到的,预处理对比度能大幅度提升准确率,这样的结论应该是建立在我说的batchnormalization基础上,你写的那个bug是得不到这个结论的。我看到后面的workshoppaper中你们把这句话删掉了,但我还是很疑惑——最初你为什么会那么巧,用错误的摸del,得到一个正确的结论?”
“还有,你们paper第五页第三段的结论,应该是对应了深度学习函数的614行,但是……”
简绯语速极快,手指飞速在paper与代码间切换,迅速跳到所描述的位置,像个冰冷严谨没有感情的挑bug机器,一条条证据罗列,把哑口无言三人