携手创作,一起生长!这是我参与「日新计划 · 8 月更文应战」的第2天,点击检查活动概况

ShowMeAI日报系列全新晋级!覆盖AI人工智能 东西&结构 | 项目&代码 | 博文&共享 | 数据&资源 | 研讨&论文 等方向。点击检查 历史文章列表,在大众号内订阅论题 #ShowMeAI资讯日报,可接纳每日最新推送。点击 专题合辑&电子月刊 快速浏览各专题全集。

东西&结构

🚧 『Annotate equations』根据 TikZ 的 LaTeX 公式注解

github.com/st–/annota…

作者受到『annotated latex equations』项目的启示,开发了当前更为简练的为公式添加注解的项目。Repo 中包括一份 PDF 文档,对语法进行了详细说明。感兴趣的同学能够看看!(老规矩,大众号『ShowMeAI研讨中心』回复『日报』同样能够获得!)

🚧 『Patchwork++』运用 3D 点云快速牢靠的地上切割办法完成

github.com/url-kaist/p…

Patchwork++ 根据 Patchwork 构建,是一种快速、鲁棒的 3D 点云地上切割算法。运用给定的演示代码运行Patchwork++后,能够得到下图的地上切割结果,其间绿色为地上,赤色为非地上。

🚧 『KaplanFirewall V0.1』个人开发的防火墙

github.com/AzizKpln/Ka…

🚧 『PyMLpipe』用于简化机器学习模型监控和布置的Python库

github.com/neelindresh…

🚧 『git-machete』 一个简化 git 作业流程的东西

github.com/VirtusLab/g…

Git Machete 是一个强壮的插件,能够简化 git 相关作业流,是对 JetBrains 产品的内置版本操控体系的一个很好的补充。

博文&共享

👍『数据科学面试』题集

github.com/youssefHosn…

作者从 2022 年 5 月份开始,在 LinkedIn 上发布每日数据科学面试的问题及答案,并将一切内容汇总在了这个项目页面中。现在分为 Machine Learning / 机器学习、Deep Learning / 深度学习、Statistics / 计算、Probability / 概率、Python、SQL & DB、简历等7个主题、近百个问答。

👍『计算机』自学攻略

github.com/pkuflyingpi…

csdiy.wiki/

随着欧美众多名校将质量极高的计算机课程悉数开源,自学 CS 成了一件可操作性极强的作业。作者梳理了自己的学习途径,期望帮助刚刚接触计算机的小白,凭借开源社区的优质资源,生长为一个有扎实的数学功底和代码才能的程序员。

数据&资源

🔥 根据多方面的『细粒度情感分析』阅览列表

github.com/NUSTM/ABSA-…

研讨&论文

大众号回复关键日报,免费获取整理好的论文合辑。

科研进展

  • 2022.07.14 『计算机视觉』 Benchmarking Omni-Vision Representation through the Lens of Visual Realms
  • 2022.07.15 『计算机视觉』 ST-P3: End-to-end Vision-based Autonomous Driving via Spatial-Temporal Feature Learning
  • CVPR 2022 『计算机视觉』 Topologically-Aware Deformation Fields for Single-View 3D Reconstruction
  • 2022.04.13 『计算机视觉』 Out-of-Distribution Detection with Deep Nearest Neighbors

⚡ 论文:Benchmarking Omni-Vision Representation through the Lens of Visual Realms

论文时刻:14 Jul 2022

所属范畴计算机视觉

对应使命:Contrastive Learning,Representation Learning,Self-Supervised Learning,比照学习,表征学习,自监督学习

论文地址:arxiv.org/abs/2207.07…

代码完成:github.com/ZhangYuanha…

论文作者:Yuanhan Zhang, Zhenfei Yin, Jing Shao, Ziwei Liu

论文简介:We benchmark ReCo and other advances in omni-vision representation studies that are different in architectures (from CNNs to transformers) and in learning paradigms (from supervised learning to self-supervised learning) on OmniBenchmark./咱们在OmniBenchmark上对ReCo和其他在架构(从CNN到改换器)和学习范式(从监督学习到自监督学习)方面不同的全视觉表明研讨进展进行了基准测验。

论文摘要:虽然在特定的视觉范畴(如人脸等)现已取得了令人形象深入的体现,但一个能遍及适用于许多自然视觉范畴的全视觉表明是非常理想的。可是,现有的基准在评估全能视觉表征时有失偏颇,而且功率低下–这些基准要么只包括几个特定的范畴,要么覆盖了大多数范畴,但却牺牲了许多有广泛范畴堆叠的数据集。在本文中,咱们提出了Omni-Realm Benchmark(OmniBenchmark)。它包括7372个概念和1,074,346张图画的数据集。在没有语义堆叠的情况下,这些数据集全面而有效地覆盖了大多数视觉范畴。此外,咱们提出了一个新的有监督的比照学习结构,即联络比照学习(ReCo),以完成更好的全视觉表明。除了将同一概念的两个实例拉近–典型的监督比照学习结构–ReCo还将同一语义范畴的两个实例拉近,对概念之间的语义联络进行编码,并促进全视表明学习。咱们在OmniBenchmark上对ReCo和其他在架构(从CNN到变压器)和学习范式(从监督学习到自监督学习)方面不同的全视表征研讨进展进行了比较。咱们说明了ReCo对其他监督比照学习办法的优越性,并揭示了多种实践观察,以促进未来的研讨。

⚡ 论文:ST-P3: End-to-end Vision-based Autonomous Driving via Spatial-Temporal Feature Learning

论文时刻:15 Jul 2022

所属范畴计算机视觉

对应使命:Autonomous Driving,Future prediction,无人驾驶

论文地址:arxiv.org/abs/2207.07…

代码完成:github.com/openpercept…

论文作者:Shengchao Hu, Li Chen, Penghao Wu, Hongyang Li, Junchi Yan, DaCheng Tao

论文简介:In particular, we propose a spatial-temporal feature learning scheme towards a set of more representative features for perception, prediction and planning tasks simultaneously, which is called ST-P3./特别的,咱们提出了一个空间-时刻特征学习计划,旨在为感知、猜测和规划使命一起提供一套更具代表性的特征,咱们称之为ST-P3。

论文摘要:许多现有的自动驾驶模式触及一个多阶段的离散使命管道。为了更好地猜测操控信号并提高用户的安全性,一种受益于联合空间-时刻特征学习的端到端办法是可取的。虽然在根据LiDAR的输入或隐含规划方面有一些开创性的作业,但在本文中,咱们在一个可解释的根据视觉的环境中拟定了这个问题。特别的,咱们提出了一个空间-时刻特征学习计划,旨在为感知、猜测和规划使命一起提供一套更具代表性的特征,咱们称之为ST-P3。具体来说,咱们提出了一种以自我为中心的堆集技能,以便在俯瞰改换之前保存三维空间的几许信息,用于感知;规划了一种双途径建模,将过去的运动改变考虑到未来的猜测中;引入了一个根据时刻的细化单元,以补偿识别根据视觉的元素,用于规划。据咱们所知,咱们是第一个体系地研讨可解释的根据视觉的端到端自动驾驶体系的每个部分。咱们在开环nuScenes数据集和闭环CARLA模仿中对咱们的办法与之前的先进技能进行了比较。结果显示了咱们办法的有效性。源代码、模型和协议细节可在github.com/OpenPercept…

⚡ 论文:Topologically-Aware Deformation Fields for Single-View 3D Reconstruction

论文时刻:CVPR 2022

所属范畴计算机视觉

对应使命:3D Reconstruction,Single-View 3D Reconstruction,三维重建,单视图三维重建

论文地址:arxiv.org/abs/2205.06…

代码完成:github.com/ShivamDugga…

论文作者:Shivam Duggal, Deepak Pathak

论文简介:The 3D shapes are generated implicitly as deformations to a category-specific signed distance field and are learned in an unsupervised manner solely from unaligned image collections and their poses without any 3D supervision./三维形状是以隐含的办法生成的,是对特定类别的有符号间隔场的变形,并以无监督的办法仅从未对齐的图画集和它们的姿态中学习,没有任何三维监督。

论文摘要:咱们提出了一个结构,用于从未对齐的特定类别图画调集中学习三维物体形状和密布的穿插物体三维对应联络。三维形状是以隐含的办法生成的,是对特定类别的有符号间隔场的变形,并以无监督的办法仅从未对齐的图画集和它们的姿态中学习,没有任何三维监督。一般来说,互联网上的图画集包括几个类别内的几许和拓扑改变,例如,不同的椅子可能有不同的拓扑结构,这使得联合形状和对应联络估量的使命更具应战性。正因为如此,从前的作业要么集中于单独学习每个三维物体的形状,而不对跨实例的对应联络进行建模,要么在类别内拓扑结构改变最小的类别上进行联合形状和对应联络的估量。咱们经过学习一个拓扑感知的隐性变形场来战胜这些约束,该变形场将物体空间中的一个三维点映射到特定类别标准空间中的一个高维点。在推理时,给定一个单一的图画,咱们首要经过运用拓扑感知的变形场将对象空间中的每个三维点隐含地变形到所学的特定类别的标准空间,然后将三维形状重建为一个标准的有符号的间隔场。准则形状和变形场都是以逆向图形学的办法学习的,运用学习的递归射线跋涉器(SRN)作为可区别的烘托模块。咱们的办法被称为TARS,在几个数据集上完成了最先进的重建保真度。ShapeNet、Pascal3D+、CUB和Pix3D椅子。结果视频和代码见shivamduggal4.github.io/tars-3D/

⚡ 论文:Out-of-Distribution Detection with Deep Nearest Neighbors

论文时刻:13 Apr 2022

所属范畴计算机视觉

对应使命:OOD Detection,Out-of-Distribution Detection,散布外检测

论文地址:arxiv.org/abs/2204.06…

代码完成:github.com/deeplearnin…

论文作者:Yiyou Sun, Yifei Ming, Xiaojin Zhu, Yixuan Li

论文简介:In this paper, we explore the efficacy of non-parametric nearest-neighbor distance for OOD detection, which has been largely overlooked in the literature./在本文中,咱们探讨了非参数近邻间隔在OOD检测中的才能,这在过往文献中基本上被忽略了。

论文摘要:散布外(OOD)检测是在敞开国际中布置机器学习模型的一项关键使命。根据间隔的办法现已证明了它的远景,假如测验样本离散布内(ID)数据相对较远,则被检测为OOD。然而,从前的办法对底层特征空间施加了一个强壮的散布假定,而这可能并不总是建立。在本文中,咱们探讨了非参数近邻间隔在OOD检测中的成效,这在过往文献中基本上被忽略了。与之前的作业不同,咱们的办法没有强加任何散布假定,因而具有更强的灵活性和通用性。咱们在几个基准上证明了根据近邻联络的OOD检测的有效性,并建立了卓越的功能。在ImageNet-1k上训练的相同模型下,咱们的办法与强壮的基线SSD+相比,假阳性率(FPR@TPR95)大幅降低了24.77%,后者在检测中运用了参数化办法Mahalanobis间隔。代码发布在:github.com/deeplearnin…

咱们是 ShowMeAI,致力于传播AI优质内容,共享行业解决计划,用知识加快每一次技能生长!点击检查 历史文章列表,在大众号内订阅论题 #ShowMeAI资讯日报,可接纳每日最新推送。点击 专题合辑&电子月刊 快速浏览各专题全集。

  • 作者:韩信子@ShowMeAI
  • 历史文章列表
  • 专题合辑&电子月刊
  • 声明:版权一切,转载请联络渠道与作者并注明出处
  • 欢迎回复,拜托点赞,留言推荐中有价值的文章、东西或建议,咱们都会尽快回复哒~