iOSのVisionフレームワークで顔のパーツ認識を試せるサンプルアプリ
iOS11から使えるようになったVisionフレームワークというのを使うとものすごく簡単に顔認識が可能です。裏ではCoreMLが使われているということで機械学習ベースの顔認識のようです。 ちょっと動かしてみようと思ったときに最適なサンプルアプリケーションをGitHubで見つけましたので紹介しておきます。おかげで同じようなことを実施するアプリを作るときの参考になりました。
iOS11から使えるようになったVisionフレームワークというのを使うとものすごく簡単に顔認識が可能です。裏ではCoreMLが使われているということで機械学習ベースの顔認識のようです。 ちょっと動かしてみようと思ったときに最適なサンプルアプリケーションをGitHubで見つけましたので紹介しておきます。おかげで同じようなことを実施するアプリを作るときの参考になりました。
AVCaptureOutputで撮影した写真はUIImageViewに表示したり本体のフォトアルバムに保存する限りは問題ないのですが、別のソフトウェアやライブラリが向きを正しく解釈してくれなくてうまくいかないというケースが起こります。
いやー、7年iOSやってても全然しらなかったんですが、Segueを自作するとちょっと便利ですね。 モーダルで開いたViewControllerを閉じるときにボタンを置いてコードを書くのは面倒だなーと思ってたんですが、閉じるボタンの操作をSegueで定義できます。
先日紹介したngrokにお金を払って使うことにしました。 https://blog.piyo.tech/posts/2018-06-07-ngrok-usecase/ 無料ユーザーだと毎回ランダムに生成される公開URLを使うことしかできません。この公開URLは12時間しか有効ではないため、毎日発行し直しが必要です。
MacのQuickTime Playerで再生速度を微調整できます。社内のMTG動画なんかを動画で共有してもらうときに1.4倍速ぐらいで再生すると時短できけて便利です。 早送りボタンをクリックすると1x、2x、5x, 10x, 30x, 60xの6段階で変更できますが、こちらは早送りするだけで音声は再生できません。
React NativeのアプリにはJS層とNative層があり、ビルドは別々に行われます。基本的にネイティブでビルドするときには最新のJS bundleに変更したいはずなので、同時にjs bundleも行われます。
SCLAlertView-Swiftがサクッと使うのにいい感じです。 https://github.com/vikmeup/SCLAlertView-Swift 簡単ですが、使用例です。サンプルアプリにボタン3つおいておきます。 showSuccessで成功時のアラートが、showErrorでエラーじのアラートがそれぞれ出せます。他にも
今更ですが、Azusa ColorsっていうKeynoteのテンプレートがお気に入りです。元々はAzusaだったんですが、ずいぶん前に色が増えました。 http://memo.sanographix.net/post/113681262780 (↑のリンクからお借りしています) どうしても青系統が好きなので右上のBlueや左下のCyanを使うことが多いです(そもそもあまり作ることないけど)
サーバーサイドの実装がまだないときとか環境設定が面倒なとき、クライアントサイドでWebリクエストを投げるコードをそれっぽく書いて試したいみたいなケースで、json-serverというJSのツールが便利でした。
僕の住む浜松にてSonicGarden Techというイベントの第2回を開催します。今回はReact Nativeをテーマとしています。 ↓↓詳細や参加登録はこちらから↓↓ https://sonicgarden.connpass.com/event/87520/ テーマはReact Nativeですが、ソニックガーデンのメンバーとの交流も兼ねたイベントでもあります。社長はじめエンジニアが数人来て …