【urdf_tutorials】Using a URDF in Gazebo 在Gazebo中使用URDF

Using a URDF in Gazebo 在Gazebo中使用URDF

原文链接: https://wiki.ros.org/urdf/Tutorials/Using a URDF in Gazebo

Description: Preliminary tutorial on how to spawn and control your robot in Gazebo.

描述:关于如何在Gazebo中繁殖和控制机器人的初步教程。

Keywords: URDF, Gazebo

关键词:URDF、Gazebo

Tutorial Level: INTERMEDIATE

教程级别:中级

Please download the URDF simulation tutorial from github or using aptitude, i.e. for ROS melodic:

请从github下载URDF模拟教程或使用apt,以ROS melodic为例:

1
sudo apt-get install ros-melodic-urdf-sim-tutorial 
阅读全文

【urdf_tutorials】Using Xacro to Clean Up a URDF File 使用Xacro清理URDF文件

Using Xacro to Clean Up a URDF File 使用Xacro清理URDF文件

原文链接: https://wiki.ros.org/urdf/Tutorials/Using Xacro to Clean Up a URDF File

Description: Learn some tricks to reduce the amount of code in a URDF file using Xacro

描述:学习使用Xacro减少URDF文件中代码量的一些技巧

Keywords: URDF, Xacro

关键词:URDF,Xacro

Tutorial Level: BEGINNER

教程级别:初学者

By now, if you’re following all these steps at home with your own robot design, you might be sick of doing all sorts of math to get very simple robot descriptions to parse correctly. Fortunately, you can use the xacro package to make your life simpler. It does three things that are very helpful.

现在,如果你在家里用自己的机器人设计完成所有这些步骤,你可能会厌倦做各种数学来正确解析非常简单的机器人描述。幸运的是,你可以使用xacro包让你的生活更简单。它做了三件非常有用的事情。

  • Constants

  • Simple Math

  • Macros

  • 常量

  • 简单数学

In this tutorial, we take a look at all these shortcuts to help reduce the overall size of the URDF file and make it easier to read and maintain.

在本教程中,我们将查看所有这些快捷方式,以帮助减少URDF文件的总体大小,并使其更易于阅读和维护。

阅读全文

【urdf_tutorials】Building a Movable Robot Model with URDF 用URDF建立移动机器人模型

Building a Movable Robot Model with URDF 用URDF建立移动机器人模型

原文链接: https://wiki.ros.org/urdf/Tutorials/Building a Movable Robot Model with URDF

Description: Learn how to define movable joints in URDF

描述:了解如何在URDF中定义活动关节

Keywords: URDF, Joints

关键词:URDF,关节

Tutorial Level: BEGINNER

教程级别:初学者

Next Tutorial: Adding Physical and Collision Properties to the Model

下一篇教程:向模型添加物理和碰撞特性

In this tutorial, we’re going to revise the R2D2 model we made in the previous tutorial so that it has movable joints. In the previous model, all of the joints were fixed. Now we’ll explore three other important types of joints: continuous, revolute and prismatic.

在本教程中,我们将修改上一教程中创建的R2D2模型,使其具有可移动关节。在以前的模型中,所有关节都是固定的。现在我们将探讨其他三种重要类型的关节:连续关节、旋转关节和棱柱关节。

Make sure you have installed all prerequisites before continuing. See the previous tutorial for information on what is required.

继续之前,请确保已安装所有必备组件。有关所需内容的信息,请参见上一教程。

Again, all of the robot models mentioned in this tutorial can be found in the urdf_tutorial package.

同样,本教程中提到的所有机器人模型都可以在urdf_tutorial包中找到。

Here is the new urdf with flexible joints. You can compare it to the previous version to see everything that has changed, but we’re just going to focus on three example joints.

这是带有柔性接头的新urdf。您可以将其与以前的版本进行比较,以查看所有更改,但我们将只关注三个示例关节。

To visualize and control this model, run the same command as the last tutorial: roslaunch urdf_tutorial display.launch model:=urdf/06-flexible.urdf However now this will also pop up a GUI that allows you to control the values of all the non-fixed joints. Play with the model some and see how it moves. Then, we can take a look at how we accomplished this.

要可视化和控制此模型,请运行与上一教程相同的命令:roslaunch urdf_tutorial display.launch model:=urdf/06-flexible.urdf但是现在这也将弹出一个GUI,允许您控制所有非固定关节的值。玩一下模型,看看它如何移动。然后,我们可以看看我们是如何做到这一点的。

flexible

阅读全文

【urdf_tutorials】Building a Visual Robot Model with URDF from Scratch 用URDF从头开始构建视觉机器人模型

Building a Visual Robot Model with URDF from Scratch 用URDF从头开始构建视觉机器人模型

原文链接:https://wiki.ros.org/urdf/Tutorials/Building a Visual Robot Model with URDF from Scratch

Description: Learn how to build a visual model of a robot that you can view in Rviz

描述:学习如何构建机器人的视觉模型,您可以在Rviz中查看

Keywords: URDF

关键词:URDF

Tutorial Level: BEGINNER

教程级别:初学者

Next Tutorial: Making the Model Move

下一篇教程:使模型移动

In this tutorial, we’re going to build a visual model of a robot that vaguely looks like R2D2. In later tutorials, you’ll learn how to articulate the model, add in some physical properties, generate neater code with xacro and make it move in Gazebo. But for now, we’re going to focus on getting the visual geometry correct.

在本教程中,我们将构建一个机器人的视觉模型,它看起来像R2D2。在以后的教程中,您将学习如何表达模型,添加一些物理属性,使用xacro生成更整洁的代码,并使其在Gazebo中移动。但现在,我们将专注于纠正视觉几何。

Before continuing, make sure you have the joint_state_publisher package installed. If you installed urdf_tutorial using apt-get, this should already be the case. If not, please update your installation to include that package (use rosdep to check).

继续之前,请确保已安装joint_state_publisher包。如果您使用apt-get安装了urdf_tutorial,情况应该已经如此。如果没有,请更新您的安装以包含该软件包(使用rosdep进行检查)。

All of the robot models mentioned in this tutorial (and the source files) can be found in the urdf_tutorial package.

本教程中提到的所有机器人模型(以及源文件)都可以在urdf_tutorial包中找到。

阅读全文

Hello World

Welcome to Hexo! This is your very first post. Check documentation for more info. If you get any problems when using Hexo, you can find the answer in troubleshooting or you can ask me on GitHub.

Quick Start

Create a new post

1
$ hexo new "My New Post"

More info: Writing

Run server

1
$ hexo server

More info: Server

Generate static files

1
$ hexo generate

More info: Generating

Deploy to remote sites

1
$ hexo deploy

More info: Deployment

【看论文】Transformer: Attention Is All You Need

Attention Is All You Need

本文链接: https://arxiv.org/abs/1706.03762
代码仓库: https://github.com/tensorflow/tensor2tensor

0 Abstract 摘要

主流的序列转录模型都是基于复杂的RNN或CNN,包括编码器和解码器。性能最好的模型还通过注意力机制连接编码器和解码器。我们提出了一种新的简单网络架构,Transformer,它完全基于注意力机制,完全不需要递归和卷积。在两个机器翻译任务上的实验表明,这些模型在质量上具有优越性,同时更具并行性,训练时间明显减少。我们的模型在WMT 2014英语到德语翻译任务中达到28.4 BLEU,比现有最佳结果(包括ensembles)提高了2 BLEU以上。在WMT 2014英法翻译任务中,我们的模型在八个GPU上训练了3.5天之后,建立了一个新的单一型最先进的BLEU分数41.8,这只是文献中最佳车型训练成本的一小部分。我们证明Transformer可以很好地推广到其他任务,它成功地应用于英语选区分析,既有大量的训练数据,也有有限的训练数据。

阅读全文

【看论文】BEVFormer: Learning Bird's-Eye-View Representation from Multi-Camera Images via Spatiotemporal Transformers

BEVFormer: Learning Bird’s-Eye-View Representation from Multi-Camera Images via Spatiotemporal Transformers

本文链接: https://arxiv.org/abs/2203.17270
代码仓库: https://github.com/fundamentalvision/BEVFormer

BEVFormer

图1:我们提出了BEVFormer,这是一种自动驾驶的范例,它应用Transformer和Temporal结构从多摄像机输入中生成鸟瞰(BEV)特征。BEVFormer利用查询来查找空间/时间空间,并相应地聚合时空信息,从而有利于感知任务的更强表示。

Abstract 摘要

三维视觉感知任务,包括基于多摄像机图像的三维检测和地图分割,对于自动驾驶系统至关重要。在这项工作中,我们提出了一个称为BEVFormer的新框架,它学习具有时空变换器统一BEV表示,以支持多个自主驾驶感知任务。简而言之,BEVFormer通过预定义的网格状BEV查询与空间和时间空间交互,利用空间和时间信息。为了聚合空间信息,我们设计了空间交叉注意力机制,即每个BEV查询跨摄像机视图从感兴趣区域提取空间特征。对于时间信息,我们提出了时间自注意力机制来循环融合历史BEV信息。就nuScenes测试集的NDS指标而言,我们的方法达到了最新的56.9%,比以前的最佳技术高出9.0点,与基于激光雷达的基线性能相当。我们进一步表明,BEVFormer显著提高了低能见度条件下速度估计和物体召回的准确性。该代码可在以下网址获取:https://github.com/zhiqi-li/BEVFormer.

阅读全文

【看论文】BEVDet: High-Performance Multi-Camera 3D Object Detection in Bird-Eye-View

BEVDet: High-Performance Multi-Camera 3D Object Detection in Bird-Eye-View

本文链接: https://arxiv.org/abs/2112.11790
代码仓库: https://github.com/HuangJunJie2017/BEVDet

Abstract 摘要

自主驾驶能够感知周围环境进行决策,这是视觉感知中最复杂的场景之一。范式创新在解决2D对象检测任务方面的成功激励我们寻求一种优雅、可行和可扩展的范式,从根本上推动这一领域的性能边界。为此,我们在本文中贡献了BEVDet范式。BEVDet在鸟瞰图(BEV)中执行三维目标检测,其中定义了大多数目标值,可以方便地执行路线规划。我们仅重用现有模块来构建其框架,但通过构建专用数据增强策略和升级非最大抑制策略来大幅提高其性能。在实验中,BEVDet在准确性和时间效率之间提供了一个极好的折衷方案。作为快速版本,BEVDet Tiny在nuScenes值集上的mAP得分为31.2%,NDS得分为39.2%。它与FCOS3D相当,但只需要215.3个GFLOP的11%计算预算,以15.6FPS的速度运行快9.2倍。另一个被称为BEVDet Base的高精度版本得分为39.3%mAP和47.2%NDS,大大超过所有公布的结果。凭借相当的推理速度,它以+9.8%mAP和+10.0%NDS的大幅度优势超过了FCOS3D。源代码公开供进一步研究。

阅读全文