-
Notifications
You must be signed in to change notification settings - Fork 89
New issue
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
2023年度ゼミ #1393
Comments
別ターミナルでroscore を立ち上げておいて、、、、
;; 関節名は https://github.com/jsk-ros-pkg/jsk_robot/tree/master/jsk_fetch_robot |
今日はお疲れ様でした.D1の大日方(おびなた)です. 今日のおさらいです Fetchを動かしたいときJSKに来たらJSKに来たら自分のPCを有線につないで,WiFiをオフにする. ターミナルごとの設定以下は新しくターミナルを開くごとに行う必要があります ターミナルで source ~/semi_ws/devel/setup.bash # ROSを使うためのおまじない
rossetmaster fetch1075 # Fetchの中のROSネットワークに入るためのおまじない
rossetip # おまじない のおまじないを打ったら rostopic list でFetchのtopic群が見えることを確認 roseus でeusのインタプリタを起動 |
roseusでロボットを動かす準備をする(load "package://fetcheus/fetch-interface.l") ;; Fetchを動かすために必要なパッケージを読み込む
(fetch-init) ;; Fetchのインタフェース,モデルなどの初期化
(objects (list *fetch*)) ;; ビューワの表示 実際に動かしてみる今日使ったコードの一覧 ;; ビューワの中のFetchで姿勢を作ってみる
(send *fetch* :rarm :elbow-p :joint-angle 90)
;; 自分で作った姿勢をロボットに送りたい.
;; ビューワ中のFetchモデル,*fetch* の姿勢を自分で作ったと仮定する
(send *ri* :angle-vector (send *fetch* :angle-vector) 8000) ;; 8000ms でロボット実機の姿勢を変更
;; Fetchの姿勢を標準姿勢に戻したい
(send *fetch* :reset-pose) ;; ビューワ中のFetchモデル,*fetch* の姿勢をリセットする
(send *ri* :angle-vector (send *fetch* :angle-vector) 8000) なお |
画像処理の結果は
等から始めるとよい euslisp で書いたサンプルプログラムは以下。
|
誰かがプログラムを更新したら
で手元に持ってこれる。
とする。その後、https://github.com/jsk-ros-pkg/jsk_demos からPullRequestを作成する。 一番最初だけ、
とする。 |
@keitayoneda 日常の面倒なことをやってくれる。ごみを集める、カップラーメンを作る。マラソン一緒に走ってくれる。 -> スポット環境を作る https://github.com/jsk-ros-pkg/jsk_robot/blob/4e2bee530757a88b27562fb0b8d3f65a6bfef61f/jsk_spot_robot/README.md |
spot環境を作る際にcatkin buildが失敗する
Project 'collada_urdf' specifies '/usr/../include/include' as an include
dir, which is not found. It does neither exist as an absolute directory
nor in '${{prefix}}//usr/../include/include'. Check the issue tracker
'https://github.com/ros/collada_urdf/issues' and consider creating a ticket
if the problem has not been reported yet.
|
@KIMJUNMO1106 Cc:@tkmtnt7000 |
@KIMJUNMO1106 に今日取ったバグファイルを使って家でも人のポーズ推定ができるようにcoral edgetpuを渡しました. |
@k-okada すみません。本日のゼミですが、家の方で外せない急用ができてしまったので今日はお休みして明日、明後日研究室の方に伺いたいのですが可能でしょうか?現状のタスクとしては
だと思っていて、1に関しては @pazeshun さんや @tkmtnt7000 さんが先週解決を試みてくださっていたと認識しています |
はい。大丈夫です。というか、今日はそもそも補講日なのでマストではないです。
明日来るなら時間をあらかじめ教えてください。
明後日は平日なのでいつでも良いです。
--
◉ Kei Okada
2023年11月22日(水) 13:53 keitayoneda ***@***.***>:
… @k-okada <https://github.com/k-okada>
すみません。本日のゼミですが、家の方で外せない急用ができてしまったので今日はお休みして明日、明後日研究室の方に伺いたいのですが可能でしょうか?現状のタスクとしては
1. spotの環境構築 -> 前回通信ができないところで止まっている
2. (環境構築ができたら)spotについているカメラを使って人認識を試す
3. (環境構築ができたら)spotにgo_velocityに類する移動指令を試す
だと思っていて、1に関しては @pazeshun <https://github.com/pazeshun> さんや @tkmtnt7000
<https://github.com/tkmtnt7000> さんが先週解決を試みてくださっていたと認識しています
—
Reply to this email directly, view it on GitHub
<#1393 (comment)>,
or unsubscribe
<https://github.com/notifications/unsubscribe-auth/AADYNXFUBSG35M6S3TM6IJTYFWALJAVCNFSM6AAAAAA6YZ47VOVHI2DSMVQWIX3LMV43OSLTON2WKQ3PNVWWK3TUHMYTQMRSGEYTEOJRG4>
.
You are receiving this because you were mentioned.Message ID:
***@***.***>
|
11/23は勤労感謝の日で73B2に人が少ないorいない(この場合は部屋に入れない)と思うので |
書き方が良くなかったのですが明日か明後日のどちらかに伺うつもりだったので、明後日にします。対応いただきありがとうございます。 |
話は変わるのですが、spotとの通信(rossetmaster & rossetipまわり)についてはどうなりましたでしょうか? |
これはspotとクライアントPCの接続の仕方の問題で,クライアントPCをSpotが出しているSSID名がBelkaのWi-fiにつないでrosssetip, rossetmaster belka.localとするとできると思います. |
了解です、ありがとうございます! |
|
@tkmtnt7000 研究室つきました。もし今日いらしていたらbelkaとの接続方法など教えていただきたいです |
明日塚本がゼミの時間帯に席を外しているかもしれないので念のため連絡しておきます。 Naoについて、73B2の掃除道具入れ横のDia制御用PCと書かれたPCにros melodicのNaoのros master用リモートPCを設置しています。近くにNao(Diaという名前の機体です)もいます。 Naoを動かしやすい場所で133系のネットワークに繋いで起動した後にDia制御用PCも適当な場所で133系に繋いで起動して(パスワードはユーザ名から類推すればJSKの人ならわかるはず)
を実行してください。
して133.11.xxx.xxxと書かれている部分のインターフェース名(eth0とかenp0s3...とか)を例に従ってコピペして書いてください。 以上をDia制御PCで実行できたら自分のローカルpcで
して (開発者向け連絡:noeticクライアントから動かすことを失念していたのでもし動かなかったらデバッグ対応いただけたら嬉しいです。move_baseとか使っていなければmsg型は変わっていないはずなので問題ない気はしています。) |
@tkmtnt7000 naoの環境ありがとうございました!めっちゃ助かりました |
@keitayoneda, @yoshiki-447, @KIMJUNMO1106, @nockoy 申し訳ないんだけど、昨晩から風邪で熱が出てしまって学校に登校するのは控えることにしました。@pazeshun, @mqcmd196, @tkmtnt7000, @sktometometo で代りに対応してもらえるかな? |
対応します |
はい.インフル等も流行っているようなのでおだいじになさってください. |
@yoshiki-447 |
@nockoy くんかな?
|
@KIMJUNMO1106 遅くなってごめん!BoundingBoxArrayをspotから見たPoseStampedに変換するコード上げた! |
明日午後に書いたコードがうまく行くかspotを動かしてみたいんですけどいつ研究室に行ったら大丈夫でしょうか? |
PCに関しては来てくれたら何とかします. |
PCの環境について見ていただけるとのこと、ありがとうございます。 |
Spot自体はLidar以外?は使えます.
申し訳ないですが,追加実験の予定は僕の発表スライドの進捗具合で変わるのでアナウンスできるかどうかは怪しいです.2/6以降僕の発表が終わっていれば来てくれたときによねだくんの実験でも僕のデモでも何か一緒に動かしましょう. |
@tkmtnt7000 了解です!ではとりあえず2/7に伺おうと思います。 |
はい。2/7の午後なら大丈夫です。それ以前でも @mqcmd196 @sktometometo が時間あれば、適当なPCを用意してセットアップするのが良いと思います |
はい,PCのセットアップについては今日明日でラップトップ一台用意しておきます. ちなみにUbuntu 20.04が入っていればSpotはパッと使える環境になると思うけど,それで大丈夫そうでしょうか? |
ありがとうございます。ros1が入る環境であれば最低限は大丈夫だと思います |
こんな感じで 可視画像の情報付きの点群を可視化&出せるようになりました. Spotに直接つないで見るのはまだできていないのですが,StrelkaのPC上で また,そのうえで
|
対応ありがとうございます. |
@sktometometo ありがとうございます!むちゃくちゃきれいに出てますね! |
@keitayoneda もとのレート(10-15くらい?)に上げるには、 https://github.com/sktometometo/jsk_robot/blob/develop%2Fspot_arm_with_lifelog/jsk_spot_robot%2Fjsk_spot_startup%2Flaunch%2Finclude%2Fperipheral.launch のthrottled_rateパラメータを変更して tmux.sh を立ち上げ直してください [email protected] に入って、roscd jsk_spot_startup で移動して ./launch/include/peripheral.launch をvimとかemacsで編集 |
@sktometometo |
throttled_rate=1でも起きてました。発生条件がthrottled_rateというわけではなさそうです |
https://qiita.com/Shunmo17/items/3382e9b9dffb93806cba |
原因はrosbagの引数に |
どんなバグ報告も誰かのためになりうるという意味で、githubのissueに上げるのにしょうもないものは無いのでどんどん書きましょう |
あと今後の方針について少し相談したいです。
というものでした。 |
解像度と画角の話をのぞけば、パノラマとボディカメラの違いはRGBの3チャンネルかグレースケール+距離画像の2チャンネルみたいな感じのはずで、人の部分を抽出する問題そのものが本質的に変わる気はちょっとしないけど、画角と解像度とサンプリングレート的には有利だと思うのでその面で使うのはありだと思います。 ただトラッキングの性能突き詰めるとそれこそ自動運転の人たちが使ってるであろうLidarベースのトラッキングアルゴリズム持ってきてファインチューンするのと質的に変わらない話だし、ただトラッキングするじゃなくて人との伴走とか人と一緒にずっと活動するロボットならではのトラッキングの観点(運動とかの傾向の認識とか意図の推定とか?興味次第でいろいろありそう)を組み合わせて何かできるかみたいな話を取り込んでも面白いかなと思います。 |
まさにサンプリングレートと解像度のことを考えると画像のほうが時間あたりに得られる情報量が多く、扱いやすいのかなと思いました。 |
研究室でロボットをなるべくすぐ動かせるように整備してるのはちょっとした実験がすぐにできるようにするためなので、どんなことでもちょっと試したくなったら是非ロボット動かしてみてください。 実際にロボット動かしながらじゃないとわからないこととかアイディアもあると思うので。 |
取ったbagファイルやそこから作成した動画を張り付けることが出来るかな. |
目標1) spot_driver でget_world_objects.py と同じような結果がprintされるようにする |
printするところまではできました
|
今日は用事があるのでここで終わりますが、次はproto内にどんなデータが入っているかを見て、ros_msgにどういう形で出すか考えるところをやろうと思います |
https://github.com/boston-dynamics/spot-sdk/blob/d5e68145ac936495b2787e09b00b948e453b1ef2/protos/bosdyn/api/world_object.proto#L47 |
素晴らしい.ぜひ動画にもしてみましょう.こういう時にどういうシーンにしたらよいか,というのを考えるのが,将来とっても大切です.
|
sktometometo/spot_ros-arm#2 |
@keitayoneda ロボットの認識・行動判断に興味がある。Spotを使って細いところを通り抜けるのを見てみたい。
@yoshiki-447 理学療法。介護ロボット。人を持ち上げたり、あるいは人との会話。アドバイスや寄り添い。
@KIMJUNMO1106 月で建築作業をするロボット。人間のような機構、パワーを出す、筋電を使う。
@nockoy ロボットかっこいいな。かわいいな。
https://github.com/jsk-ros-pkg/jsk_demos/tree/jsk_2023_10_semi
The text was updated successfully, but these errors were encountered: