本篇文章6592字,读完约16分钟
参加:杜伟,楚航,罗若天
本周的重要研究包括王者荣耀ai绝悟完整和新的目标检测范式sparse r-cnn。
目录:
towardsplayingfullmobagameswithdeepreinforcementlearning
长范围区域: abenchmarkforefficienttransformers
sparser-CNN:end-to-endobjectdetectionwithlearnableproposals
themathematicalfoundationsofmanifoldlearning
learningtoreconstructandsegment 3d objects
u ^2- net:goingdeeperwithnestedu-structureforsalientobjectdetection
stylized neural painting
arxiv weekly radiostation:nlp、cv、ml越来越多的精选论文(带语音)
论文1:towardsplayingfullmobagameswithdeepreinforcementlearning
作者:德亨耶、贵宾陈、文章等
论文链接: arxiv/abs/.12692
摘要:多人在线竞技类游戏moba长期以来吸引了很多玩家,其中的王者荣耀、英雄联盟、dota 2等最近也经常被ai研究者用作人工智能的实验场,其中的多智能体、巨大的状态动作空间、复杂的环境等 开发moba游戏用的ai备受瞩目。 但是,在openai的dota ai将游戏限制在只能选择17位英雄的情况下,如果要扩展英雄库,很难解决代理的组合(即阵容)爆炸性增加引起的游戏多样性问题。 因此,现有的ai系统无法掌握完全没有限制的moba游戏。
测试了日平均活跃玩家数超过1亿人的国民手游王者的荣耀,表明人类可以创造出打败顶级电子竞技玩家的超ai代理。 文献首次进行了moba ai代理的大规模性能测试,说明了该ai的优越性。
神经网络体系结构的图像。
curriculum self-play学习流程图。
推荐:人工智能二级越来越来塔杀我。
论文2 :长范围区域: abenchmarkforefficienttransformers
作者: yi tay、mostafa dehghani、samira abnar等
论文链接: arxiv/pdf/.04006.pdf
摘要: transformer以多模式(语言、图像、蛋白质序列)得到了sota结果,但存在限制自观察力机制平方水平多、复杂程度长的序列行业中的应用的缺点。 现在,研究者提出了许多高效的transformer模型(“xformer”),试图处理这个问题。 其中很多显示出了原始的transformer那样的性能,可以有效地降低自观察力机制的存储器的数量和噪声。
谷歌和deepmind的研究者提出了一种新的基准long-range arena (lra ),用于在较长上下文场景中进行序列模型的基准测试。 这个标准包括合成任务和现实任务,研究者对这个标准中10个最近提出的高效的转换器模型,进行了sparse transformers、reformer、linformer、longformer、sinng
lra标准中每个任务的必要观察力范围。
xformer模型的效率基准结果。
推荐:关键是关注长上下文场景中的模型质量判断。
论文3:sparser-CNN:end-to-endobjectdetectionwithlearnableproposals
作者:裴泽孙、瑞丰张、颐江、陶空等
论文链接: arxiv/abs/.12450
摘要:按照目标检查行业的dense和dense-to-sparse框架,sparse r-cnn建立了彻底的sparse框架,anchor box、reference point、regionpropossition 不使用non-maximum suppression(nms )解决,在标准的coco benchmark上采用resnet-50 fpn单模型,在标准的3x培训计划中达到了44.5 ap和22 fps。
retinanet、faster r-cnn和sparse r-cnn的比较。
sparse r-cnn体系结构pipeline。
推荐:新的目标检测范式。
论文4:themathematicalfoundationsofmanifoldlearning
作者: luke melas-kyriazi
论文链接: arxiv/pdf/.01307.pdf
摘要:流形学习( manifold learning )是机器学习、模式识别的一种方法,在维数约简方面得到了广泛应用。 其第一思想是将高维数据映射到低维,使该低维数据能够反映原始高维数据的一些本质结构特征。 流形学习的前提是假设某个高维数据实际上是低维流形结构嵌入高维空间。 流形学习的目的是将其映射到低维空间,明确其本质。 流形学习可以作为数据降维的方法。 另外,流形可以刻画数据的本质,主要的代表性方法是等距映射、局部线性嵌入等。 自2000年首次在知名科学杂志《science》上提出以来,流形学习一直是机器学习行业的热点。
最近,哈佛大学数学系的本科毕业论文备受瞩目。 结合看起来不太相关的三个数学行业介绍流形学习的数学基础。 这三个行业分别是统计学习、频谱理论和微分几何学。
监督,半监督,无监督的学习形象。
典型的内核函数示例。
推荐: luke melas-kyriazi现在是牛津大学的博士。
论文5:learningtoreconstructandsegment 3d objects
作者:博阳
论文链接: arxiv/pdf/.09582.pdf
摘要:赋予机器像人类一样感知三维真实世界的能力是人工智能行业的根本和长时间存在的主题。 这个行业研究中的重要目标之一是考虑到视觉输入具有用二维或三维传感器取得的图像和点云等不同类型,理解三维环境的几何结构和意义。 传统的做法一般是利用手工构筑的特征推测物体和场景的形状和意义。 但是,这些方法很难泛化到新的物体和新的场景中,也不容易克服视觉遮挡的重要问题。
今年9月从牛津大学计算机科学系毕业的博士bo yang在其毕业论文《Learning Tore Constructand Segment 3d OBJects》中对这个主题展开了研究。 与迄今为止传达的做法不同,作者通过用大规模现实世界的三维数据训练的深度神经网络学习通用和鲁棒性表现,理解场景和场景中的物体。 总之,本文开发了一系列新的数据驱动算法,以达到机器感知真实世界的三维环境的目的。 作者说:“可以说突破了人工智能和机器理解的界限。 "。
互联网体系结构的培训和测试过程。
推荐:人工智能与机器理解的边界
论文6:U2-net:goingdeeperwithnestedu-structureforsalientobjectdetection
作者:薛文钦、子陈张、陈杨黄等
论文链接: arxiv/pdf/2005.09007.pdf
摘要:从脸部照片生成艺术肖像画的ai应用程序不少,但效果惊人地少。 上面照片的输入输出结果来自github的热门项目u^2-net (u square net ),开源至今获得了1.7k的star量。 这项研究来自艾伯塔大学的团队,论文迄今为止在国际模式识别大会icpr会议上收到。
研究小组在论文中介绍了u^2-net是一种简单强大的深度互联网体系结构,其体系结构是双层嵌套的u形结构。 在这项研究中提出的residual u-block(rsu )中,因为可以从不同的尺度捕捉到越来越多的上下文新闻,所以混杂着不同大小的接收域。 另外,rsu采用了池化操作。 这是因为在不大幅提高计算价格的情况下,可以增加整个体系结构的深度。
u^2-net与其他sota sod模型的比较。
研究者通过将其应用于人类肖像的生成,无论是孩子的肖像还是大人的男性、大人的女性,都能得到相当细致的生成结果。
论文7:stylized neural painting
作者:正夏邸、天亚农石、双秋等
论文链接: arxiv/pdf/.08114.pdf
摘要:本文提出了来自密歇根大学安娜堡分校、网易伏开ai实验室等机构的研究者生成风格可控的生动逼真的油画作品的图像转换方法。 因为典型的矢量渲染器不能微分,所以他们可以设计新的神经渲染器,模仿矢量渲染器的行为,设计笔划预测作为参数检索过程,以最大化输入和渲染输出之间的相似性。 另外,研究者探索了参数搜索的零梯度问题,提出了从最佳运输的角度处理这个问题。
双通道神经渲染器。
(图注)不同渲染方法的效果比较。
推荐:用这种方法生成的油画在整体外观和部分纹理中都具有很高的保真度。
arxiv weekly radio站
机心与楚航、罗若天发起的arxiv weekly radiostation合作,以7 papers为基础,本周精选了越来越多的重要论文,包括nlp、cv、ml行业各10篇精选,提供语音形式的论文摘要。
本周的10篇nlp精选论文如下。
1.tightintegratedend-to-endtrainingforcascadedspeechtranslation.( fromhermanney )
2.two-wayneuralmachinetranslation:aproofofconceptforbidirectionaltranslationmodelingusingatwo-dimensional grid
3.glge:anewgenerallanguagegenerationevaluationbenchmark.( fromruofeizhang )
4.onion:asimpleandeffectivedefenseagainsttextualbackdoorattacks.( frommaosongsun )
5.cross-documenteventcoreferenceresolutionbeyondcorpus-tailored systems.( fromirynagurevych )
6.acousticspanembeddingsformultilingualquery-by-examplesearch.( fromkarenlivescu )
7.xtqa:span-levelexplanationsofthetextbookquestionanswering.( Fromjunliu )
8.enhancingdeepneuralnetworkswithmorphologicalinformation.( frommarkorobnik-ikon Ja )
9.apanoramicsurveyofnaturallanguageprocessinginthearabworld.( fromkareemdarwish )
10.1 stafricanlpworkshopproceedings,. ( from vukosi marivate )
这周的10篇cv精选论文如下。
1.temporalactiondetectionwithmulti-level supervision.( fromkatesaenko,trevor darrell )
2.exploringsimplesiameserepresentationlearning.( fromkaiminghe )
3.emotional semantics-preservedandfeature-alignedcycleganforvisualemotionadaptation.( fromalbertol.sang iove )
4.learningtosamplethemostusefultrainingpatchesfromimages.( from Liang Chen,philip torr )
5.Slade:aself-trainingframeworkfordistancemetriclearning.( fromlarrydavis,c.-c. jay kuo )
6.building3dmorphablemodelsfromasinglescan.( fromjoshuatenenbaum )
7.attentionawarecostvolumepyramidbasedmulti-viewstereonetworkfor3dre construction.( frombingliu )
8.unsuperviseddiscoveryofdisentangledmanifoldsingans.( from Ming-hsuan yang )
9.seg blocks:block-baseddynamicresolutionnetworksforreal-time segmentation.( fromtinnetuytelars )
10.micronet:towardsimagerecognitionwithextremelylowflops.( fromzichengliu,lei zhang,nuno vasconcelos )
本周的10篇ml精选论文如下。
1.energy-basedmodelsforcontinuallearning.( fromantoniotorralba )
2.tleague:aframeworkforcompetitiveself-playbaseddistributedmulti-agentreinforcementlearning.( fromzhengyou )
3.unsupervisedlearningofdisentangledrepresentationsindeeprestrictedkernelmachineswithorthogonalityconstraints.( From JIS )
4.equivariantconditionalneuralprocesses.( fromyeewhyeteh )
5.meta gater:fastlearningofconditionalchannelgatednetworksviafederatedmeta-learning.( Fromjunshanzhang )
6.ensemble-anddistance-basedfeaturerankingforunsupervisedlearning.( fromsaoderoski )
7.convergenceanalysisofhomotopy-sgdfornon-convex optimization.( frommoritzdiehl,frank hutter )
8.explainablemultivariatetimeseriesclassification:adeepneuralnetworkwhichlearnstoattendtoimportantvariablesaswellasinfication
9.nosubclassleftbehind:fine-grainedrobustnessincoarse-grainedclassificationproblems.( from Christopheré。
10.cycliclabelpropagationforgraphsemi-supervised learning.( Fromjiajunbu )
喜欢这个复印件的人还喜欢
原标题:7 papers &; radios |王者荣耀ai绝悟完整目标检测新范式"
阅读原文。