Fusion360における画像に基づくモデル生成(Image2Surfaceの活用)

Fusion360においてある程度パターン化できるモデルをつくりたいとき、
(1)Pythonに公開されているAPIを使ってモデル編集スクリプトを書く、
もしくは(2)画像に基づいてモデルを生成する、の2パターンがあります。

本稿では(2)の手順を簡単に説明します。
(2)は以下のような手順で行えばよいかと思います。

  1. 画像を作成する(私はpythonスクリプトで作ったりします)
  2. アドイン(Image2Surface)で当該画像をインポートしてモデル生成
  3. 土台部分を作成

2. アドイン(Image2Surface)で画像をインポートしてモデル生成

f:id:yusuke_ujitoko:20201112184030p:plain

ここでできることは以下のパラメータを調整することだけです。

  • Pixels to Skip(スキップするピクセル数)
  • Steppover (mm)(解像度に相当。例えば0.1にすると10pixelで1mm)
  • Max Height (mm)(高さのスケーリング値)

なおこれらのパラメータは最大・最小値が設定されていますが、 Image2Surfaceのスクリプトをいじれば変更できるようです。

「Generate Surface」としてモデルのサーフェスを生成して終わり。

3. 土台部分を作成

  1. で生成したモデルはサーフェスのみなので土台を作っていきます。

前準備としてImage2Surfaceで生成したサーフェスを変換します。 「フォームを作成」→「ユーティリティ」→「変換」→「クアッドメッシュからT-spline変換」とします。 ここはメッシュの細かさ次第で時間がかかるかもしれません。 もしエラーが出るときは、画像の解像度を低くするとよいようです。

その後、土台となるボックスを作成します。 一番簡単なのはスケッチを作成して押し出しするだけです。 ↑の画像から生成したサーフェスよりも小さいサイズにする必要があります。

最後に面を置換で、ソースとなるサーフェスを生成したサーフェスに指定し、ターゲットとなるサーフェスを今作成したボックスに指定すると、 ボックスの表面サーフェスが、生成したサーフェスに置換されます。

これで所望のサーフェスに土台が付いたモデルが得られます。

f:id:yusuke_ujitoko:20201113232121p:plain (上の画像と合っておらず申し訳ございません)

hugo academicでhugoだけアップデートした場合のエラー対処法

参考:https://spectrum.chat/academic/help/any-idea-why-this-error-is-happening-when-running-hugo~3b03ceab-c5b8-4ac3-9da8-5fe7e81b6ccd

https://github.com/wowchemy/wowchemy-hugo-modules/commit/88d83a615c6bbdc6f280aecff3f7e993161d9a94 にあるように,themes/academic/layouts/publications/single.html を修正する.

MATLABでマルチチャネルのオーディオ入出力

MATLABでマルチチャネルのオーディオ入出力するには、
このライブラリが便利。 https://github.com/jgdsens/pa-wavplay

matlab pa_wavplay([devicetype]) というコマンドで例えばmatlab pa_wavplay('wasapi') と指定すると、wasapiのデバイスがリストされる。

matlab pa_wavplay(buffer, samplerate, deviceid, devicetype) をコマンドすると指定デバイスで再生可能。

MATLABでシリアルポートが開けないときの対処法

MATLABでポートオブジェクトが残ってしまうと、以下のようなエラーメッセージが出てポートを開けなくなる。

エラー: serial/fopen (line 72)
開くことができません:  Port: COM3 is not available. Available ports: COM1.
Use INSTRFIND to determine if other instrument objects are connected to the requested device.

そのようなときは、

delete(instrfindall);

とコマンドを打つ。

参考文献: Error refreshing com ports - MATLAB Answers - MATLAB Central

UISTにおける自動車UI研究のサーベイ

以前CHIにおける過去5年分の自動車UI研究を網羅的にサーベイした。
今回はUISTに関して同様にサーベイする。
発表された研究のアブスト(DeepLによる翻訳)をまとめた。

UIST2016

なし

UIST2017

Carpacio: Repurposing Capacitive Sensors to Distinguish Driver and Passenger Touches on In-Vehicle Screens
  • https://ubicomplab.cs.washington.edu/publications/carpacio/
  • 標準的な車両用インフォテインメントシステムには、多くの場合、ドライバーが携帯電話、ナビゲーション、オーディオ、および車両の設定を操作するためのタッチスクリーンが含まれている。ドライバーの安全のために、走行中はこれらのインターフェースが無効化されたり、簡素化されていることが多い。このような機能の低下は、ドライバーの注意力散漫を軽減するのに役立つが、同乗者にとってはインフォテイメントシステムの使い勝手を阻害することになる。現在のインフォテイメントシステムは、ユーザーの着座位置を認識していないため、適応することができません。我々は、ユーザが静電容量式スクリーンに触れたときに、タッチスクリーンとシート内の電極の間に生じる静電容量性カップリングを利用したシステム「Carpacio」を紹介する。この静電容量結合現象を利用して、カーインフォテインメントシステムは、誰が画面と対話しているかをインテリジェントに識別し、それに応じてユーザーインターフェースを調整することができます。また、同梱されているシート乗員検知センサーやシートヒーターコイルをシート電極として使用することができるため、自動車メーカーは容易にCarpacioを車両に組み込むことができます。8台の車と5台のモバイルデバイスで評価した結果、Carpacioは2600回以上のタッチを99.4%の精度で正確に検出しました。
Reinventing the Wheel: Transforming Steering Wheel Systems for Autonomous Vehicles

UIST2018

Adasa: A Conversational In-Vehicle Digital Assistant for Advanced Driver Assistance Features
  • https://dl.acm.org/doi/10.1145/3242587.3242593
  • 先進運転支援システム(ADAS)は、ほとんどの最新の自動車に搭載されており、レーンキーピングシステムやアダプティブクルーズコントロールなどの機能を通じてドライバーを支援し、運転体験を向上させることを目的としている。しかし、最近の研究では、いくつかの理由からこれらの機能を利用している人は少ないことがわかっています。第一に、ADAS機能は最近まで一般的ではなかった。第二に、ほとんどのユーザーはこれらの機能に慣れておらず、何を期待していいのかわからない。最後に、これらの機能を操作するためのインターフェイスは直感的ではありません。ドライバーがADASの機能を理解するのを助けるために、我々は、ドライバーの質問やコマンドに自然言語で応答する会話型の車載デジタルアシスタントを提示します。このシステムでは、ドライバーは車内で制約のない自然言語を使って質問や命令をすることができ、高度な機械学習技術を使って訓練されたアシスタントは、車の信号へのアクセスと相まって、会話の文脈に基づいてリアルタイムで応答する。市販車で試作した我々のシステムの結果を紹介し、ドライバーのADASの理解と使いやすさを向上させるための有効性を実証する。

UIST2019

A New Approach to Studying Sleep in Autonomous Vehicles: Simulating the Waking Situation
  • https://dl.acm.org/doi/abs/10.1145/3332167.3357098
  • 本論文では、個人が睡眠から覚醒する際に経験する身体的・認知的要求をシミュレートするための新しい方法論を提示する。このシナリオをよりよく理解することは、自律走行車(AV)の研究にとって重要な意味を持ち、先行研究では、多くのドライバーが運転中に眠りたいと考えていることが示されている。本実験では、2つの方法で覚醒状態を再現しています。(1)被験者は3セッション(5分、8分、11分)の間、スリープシェード(身体的要求)をランダムに割り当てられた順番で着用し、その後、(2)10秒の間にぼやけた状態からクリアな状態へと変化するスクリーン(認知的要求)を見る。実験では、被験者の体験を実生活での覚醒時の身体的・認知的条件と比較した。実験設定は、睡眠状況を交互に変化させることの有効性と適切性が高く評価された。今後のAV研究のシナリオデザインとして活用され、他の分野でも採用可能である。