Custom Vision Serviceを使ってお花判定カメラアプリを作る

こんにちは。 もうすぐ春ですね。

コンサルティング&テクノロジー部の松永です。

今回はCustom Vision ServiceをiOSのアプリに組み込んでみようというお話です。

Custom Vision Serviceでは、トレーニングしたモデルを出力する事が可能です。

この出力したモデルを使うと、オフラインの環境化でも利用可能であったり、APIを経由しない分レスポンスが早い等、

特にスマートフォンのアプリに組み込む場合にその恩恵を受けることができます。

今回はこの機能を使って、iPhone用のお花判定カメラアプリを作ってみたいと思います。

(何故、お花なのかというと私が園芸を趣味としているからにほかなりません。)

尚、今回の記事はCogbot勉強会#12で発表したLTの内容の詳細版になります。

(勉強会に参加された皆さま。萎れていた花はすっかり元気になりました。)

Read More

Apple TV でFocusGuideを使用する

Apple TV の UI はフォーカスモデルとなっています。画面内のどれかの要素がフォーカスを持っていて、ユーザーがリモコンなどで行うアクション(タップとか)はその要素に対して行われます。
他の要素に対してアクションしたい場合、フォンアプリでは、直接画面上で他の要素をタップすることができますが、Apple TVアプリではスワイプ操作などでフォーカスを対象の要素に移動させてからアクションする必要があります。

例)Button A にフォーカスがあるとき、Button Bをタップしたい場合

このように、Apple TV アプリではフォーカスの概念が重要になります。


Read More

Apple TVのリモコン(Siri Remote)のTouch Surface上で触っている位置を知る方法

Apple TV のリモコン(Siri Remote)には Touch Surfaceがあります。
通常リモコン操作をプログラムで検出したい場合、UITapGestureRecognizer(タップジェスチャー)やUISwipeGestureRecognizer(スワイプジェスチャー)を使用するか、低レベルのイベントをハンドリングします。
これで基本的な操作は検出できるのですが、Touch Surface領域のどの位置を触れているかの検出できませんでしたので、方法を調べてみました。

まずそもそも、なぜ検出できないのかAppleに聞いてみました。

以下のような理由だそうです。

We do not expose the physical location of the user’s finger from the Siri Remote’s touch pad. Part of the reason we do this is to discourage “pointer-based” UI screens, such as mouse cursors and similar navigation methods.

AppleTVのUIはフォーカス移動で行うことを想定しており、マウスカーソルのポインタのようなもので操作するUIを作らせないために意図的にこのような仕様にしているそうです。
ですので、これから紹介する方法は上記に該当するようなUIを作るためにはオススメしません。

これを踏まえて、
このTouch Surface上のどの位置が触れられているのかを検出する方法を紹介します。

Read More

ネクストスケープ企業サイトへ

NEXTSCAPE

検索する

タグ

メタデータ

投稿のRSS