-
Notifications
You must be signed in to change notification settings - Fork 11
New issue
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
【召集】自己成功组装了 Jetbot 的同学请到此报名 #6
Comments
我也遇到了@lcsama同样的问题,我在usb电源线上焊接了一个开关,高负载的时候会突然断电,换了线之后就解决了。 |
@revox0x 成功组装欢迎报名到这,最好能放个照片😄 |
电机驱动的iic连接 jetsonnano 的哪个口了 |
@sunkechenjing 哈哈,你的线满天飞啊。。。你不写点过程吗? |
oled 刚刚找到正确接口,线还没整理^_^,网上能参考的资料比较少,遇到问题好像解迷一样。但修得了不少新的技能,jetbot是个好项目,但我感觉官方的教程如果细化、准确一些,就更棒了 |
@sunkechenjing 哈哈,我们都是小白鼠 |
@codingchan 哈哈哈, 你让我回忆起小时候拆完家电安装后的效果----有什么能塞就塞什么。看起来散热比较好哈哈哈 你这个应该是第一个不用打印官方3D小车模型的了,太棒了,你是买的WiKi 里的模型吗? #3 |
@unbug 模型长得很像,但应该不是同一个,质量一般,TB链接:https://detail.tmall.com/item.htm?id=541274661038&spm=a1z09.2.0.0.25f32e8dfVQJCU&_u=71ffup6b120 BTW,除了电焊,有什么好的固定针脚的办法吗? |
热熔胶枪(焊胶枪)很方便的啊,买吧 |
好的多谢! |
Hi all, 鉴于官网代码控制 Jetbot 运行,还需要额外购买游戏手柄(Gamepad Controller)。因此,我写了一个通过网页控制 Jetbot 运行的程序。这样,通过手机浏览器,就可以远程控制 Jetbot 运行。有兴趣的同学可以看看。 项目 Wiki:https://github.com/mayuanjason/mbot/wiki/Remote-Control BTW,这个程序,不仅可以运行在 Jetbot 上,树莓派或者其它 SBC 上也能够运行,可能只需要适配 motor.py(电机驱动)即可,上层网页控制、视频流代码,都是与平台无关的。 另外,我也买齐了组装 Jetbot 的各种零件,但还没来得及组装。。。后续我也会将组装遇到的任何问题,记录到我的 wiki 里面。 最后还要感谢 unbug,没有他发起的这个项目,我是不可能凑齐 Jetbot 所需零件的!!! |
@mayuanjason 我已经将你的作品加到 Readme 了, 下次建议新开 issue. |
@jetta 你这布线非常的整洁👍 |
最后,还要感谢 unbug 提供的各种材料链接。 |
这个我确实觉得直接买直的即可。
你在什么地方打印的?有链接吗?他们材料不能换吗?太热了会不会影响模具?
你的 Remote-control 已经加到 README 了👍 |
就是你推荐的 |
花了大约一周时间购买材料和用打印机器打印3D部件并组装,终于做出来并成功跑通官方demo了,看了底下的评论说是没有pioled也是可以使用的,就没有使用pioled~ 最后感谢 @unbug发起的这个项目,还有底下很多朋友的实物照片和心得分享,让我少走了不少弯路 |
https://www.bilibili.com/video/av59238326/ 目前只试了遥控的历程,还能凑合着使用,就是这个3D打印的轮子灵敏度不是很高:sweat_smile: |
@xiahangli 太吊了,下班回去看看视频,anyway 欢迎加入 OAR 一起折腾开源机器人 #5 |
@xiahangli |
@mayuanjason 这个好像国内很少,很难买到,我是3D打印,修改网上的MakerBeam的stl文件自己打印的,或者也可以通过修改底座适配2020150的型材,可以参考: |
@unbug 好啊 |
@xiahangli 感觉我的摆拖鞋机器人又有希望了 https://github.com/open-ai-robot/awesome-anki-vector#shoes-placed |
@unbug 很酷啊,我下班看看去,这个机器人我好想在知乎也看到类似的呀 |
@xiahangli 摆拖鞋的项目用 Kaya 会容易很多的 |
我组装成功了,为了记录踩过的坑写了一个帖子,还没坐小车的可以看看,交流一下。 |
@helghastGIT 你的页面404了,直接上图到这里啊 |
@helghastGIT 哈哈,真够详细的,你的图呢?你将图片拖到评论框它就自动上传了,会生成链接并自动插入给你的 |
你好我也发现了没图的问题,我现在在补充上传
|
我是用的感觉是不好的,不够长,又不敢大力拧,下面就是核心板啊,所以解决方法是扎带,建议各位大小扎带都囤满,扎带和热熔胶能解决很多问题。 扎带大佬你不得不服 可以借助散热器的样子固定其他的线 最后想提醒大家的是,初始上代码别急着上轮子,这货不慢的,测试电机时会跑,而且不一定撞到什么。即使腾空房间还是有可能撞到的(pc给信号可能延迟不少的,来不及停止),不如拆了轮子,先放在盒子上,做电机什么的测试。 镜头磕到了架子上,心疼 从这点来说不买套件,3D打印一个架子还是不错的,可以做一些防撞栏之类的。我现在对3D打印还在观望中,资金不充裕。 本文先到这里,也想请各位大佬提一个问题:TF卡有要求吗?我的是64G U1等级的,我看装了镜像几乎就满了,想换张128的,但是英伟达官方给的卡型号应该是三星的,U3级别,那么官方有没有说明数据量什么的问题,所以要U3等级的卡???(好像闪迪官方说他们U3是读取160mb/s,写入90mb/s;U1是读取100mb/s,写入略低)请大神指教 |
网上看到有老哥是不将镜像放在tf卡的,而是放在了外界的硬盘上,在讲jetson nano当做小型电脑时成功了,没试过jetbot,找一天试试,只不过外界的硬盘放哪是个问题····哪位朋友有良策···· |
@helghastGIT 你按你的需要来啊,跑个linux 毫无压力啊上面 |
@unbug 其实重点是我上哪找固定硬盘的地方(最好能保证美观),另外就是tf卡耗电远远比硬盘低,也不怕抖。换盘可以试试,只不过我好奇官方是怎么定义镜像所在卡的速度的········ |
@helghastGIT TF 卡也有大容量的,不过就是贵哈哈哈 |
我今天好像扫过一个帖子····忘了在哪,说的是其实可以先上官方14g的镜像,,当做Ubuntu电脑用,想上jetbot 的话可以下载软件包,那么可能可以先做好系统?在上小车软件包?和直接刷63g镜像一样的? |
官方git里的,但是这么做的问题在于你要自己编译tensorflow,就很烦 |
本人现在的本事,自己做镜像也不会,编译也不会········但是以后如果不只是想做这么个小车,想尝试更大的实验、更复杂的机器人,那真的迟早得上SSD(不会再买更大的TF卡了),等练好了基本工再说吧 |
@helghastGIT @lcsama Jetbot 也是基于Ubuntu 的,装了ROS https://github.com/dusty-nv/jetbot_ros , |
我知道是基于Ubuntu,可以用ROS,这样很好。有自己的系统。 我先说事,再说观点。 今天尝试自主避障,我是用那个网页按键,控制小车一边走一边拍照,昨晚拍了200张,然后它认为看见的全是障碍物······今天拍500张再试试。但是很麻烦的事,家里的地板缝隙比较大,即便轮子不卡住,万向轮也会卡住。所以tips:大家看看用什么轮子和电机,因为力气太小可能卡住····而且我为了拍的细致,设置的轮子运行速度和时间都很短(也是怕撞墙),但是这样也是很容易卡住的。 说回来,原来用turtlebot学习的时候,已经知道了最早的问题——不是说我设置它转多少就是多少,要配合里程计之类的矫正。那么他自己怎么判断?如果是现场判断就是端是吗?如果GPS定位,传回控制台计算再回传就是后台判断吗?我学识浅薄,对于到底终端和后台到底各自应该负责什么内容,我不知道,但我觉得不是一定的,限死的。我个人更倾向于机器人自身能够判断,因为我的经验是靠网络是不靠谱的,延迟啊丢包之类的,无法让人放心。当然现在最新的5G宣传是说可以做到你说的这样,但是那个还要看实际使用情况。我觉得自身思考能力与网络连接两个技术应该是相向而行的,相互补助的。瞬间的反应可以交给终端个体(类似于脊椎),但是长期大量的数据(比如未来一个小区的快递机器人,他每天看到的数据都可以回传主机进行学习,这样他能找一条更好走的路,送货)交给主机,不用实时,今天的算完,明天上线更新就好。而且不可能所有地方信号覆盖都好,甚至直接就没有基站。但是就像是jetson nano本身,有更高运算能力、更低功耗和更小体积的小电脑,只要能做出来就可以批量生产,那么还可以做到更便宜的价格完成更复杂的学习,这个与网络是不一样的,我觉得这个更好去实践出来。 |
@helghastGIT 你的场景切实蛋疼,吧车速度调低呢? |
你后面的话没听懂······速度我调了,可以的,但是在跟踪测试的时候,我觉得那个调速没啥用······因为根本就没有慢下来,休息一会再看看官方怎么写的·····改一改 |
@helghastGIT 这里还有一个是视频流+云实现的AI运算,虽然与Jetbot 的场景不同,但将来的AI将是本地采集数据+云解析和遥控的,因为云的算力很大,扩展空间更高,之所以在本地计算主要原因并不是因为延迟,而是隐私和法律 https://github.com/open-ai-robot/awesome-anki-vector |
学到了,我多了解下。 |
@unbug 现在在试追踪目标,速度设为0.1的话动力太小,放在地上可能会不动,所以速度全都设为0.13,画面显示当然能看到手上的苹果,但是我觉得也只是偏移了一下角度,然后就不会再调整角度了,就直接忘我的手里苹果来了。我不知道是速度太快了吗?因为想做出用苹果引导它绕一圈的效果··· |
请问大佬们,有没有在nano上使用usb声卡做语音识别的经验 |
我过几天测试一下乐视的 letmc 520 摄像头,那个好像带双麦克风的。 试了下,可以看到有麦克风设备,具体应用还没测试 |
无论你是依据NVIDIA JetBot DIY 资料汇总提供的零件清单购买链接,还是自己用其他零件成功自己组装了 Jetbot, 都恭喜你,也希望你能在本帖回复组装的简单过程,截图等,帮助其他人少走弯路。
The text was updated successfully, but these errors were encountered: