試作iPhoneアプリと光センサ
リモートブレインの夏休み:iPhoneロボ
何とか出来上がったのが、このアプリです。
iPhone SDKやObjective-Cについては、ネット上で若手の先輩諸兄が、様々な評論・解説を展開しておられますので、そちらをご覧いただくとして(こればっかり)、このブログでは説明を省きます。
Objective-Cのような人工言語は、論理的に構築された上、プロダクトアウトの視点で製作されています。マーケットインの視点で、ユーザー調査を重ねて作った言語というのは、私は知りません。
ですから、言語の設計者が考える「プログラムの作り方」を理解できるかどうかが、好き・嫌いのポイントになると思います。人付き合いみたいなもんですね。
Objective-Cを人間に例えると「自己主張の強い正義漢」ですかねえ。思考パターンは単純だが行動力はある、友達にすると心強いのではないでしょうか。
脱線しました。アプリの解説です。
x,y,zの数字は、加速度センサの読み出し値、単位はGです。約100mSごとに更新しています。
その隣のかわいい女の子のイラストは、この本から出張してもらいました。画像ファイル表示の練習ですが、殺風景な画面がちょっとだけ暖かくなるという効果も狙っています。この画像は、シーケンサでアニメーションします。
画面下の二つの大きなドットが、光センサを通してロボットの進行方向をコントロールする「コマンド・ドット」です。
現在のアルゴリズムでは、右に傾くと右のドットが点灯、左に傾くと左のドットが点灯、水平(傾きが閾値以下)の時は両方のドットが点灯するようになっています。
このドットを読んで、ロボットは常に山側に舵を取るように走行する訳です。
光センサは、この写真のように、プリント基板と、EVAと呼ばれる固めのスポンジで外装を作り、5ΦのCDSを2個取り付けました。EVAスポンジは、ダイソーで防振パッドとして売られていたものです。これを裏返してiPhoneの画面にあてがいます。
光センサは、こんなふうにアプリのドットの部分にかぶせます。センサの外装は、黒いビニールテープをぐるぐる巻きにして、しっかり遮光します。
これで準備OKです。次はロボット本体を作ります。
« iPhone実験用ロボのミッションを決める | トップページ | iClimber試作シャーシを作る »
「リモートブレインの夏休み」カテゴリの記事
- 周回遅れのiPhone開発(2011.08.21)
- 簡単にできる!インターネットリモコンロボの製作(1)(2010.10.21)
- softModemの試験運用は謎のマシーンで!(2010.10.19)
- Modem版への改造終了です(2010.10.12)
- SoftModem用インターフェイスのまとめ(2010.10.05)
iphoneの画面に光りセンサを付けて、
マイコン制御のモータを制御すれば、
iphoneの色んなセンサと合わせてなにか面白そうなことが出来そうだ!、
と先ほど思いつき、これはかなり名案だから、ブログにしてみよう、
と考えて、ふと、検索してみたら、
この記事に辿り着きました。
実際に動いているところや、その後の進化が見れて、非常に面白かったです。
(満足してしまいました)
投稿: | 2011年4月 9日 (土) 16時16分