Swiftデバッグビルドでの最適化オプション
React Nativeで使うために高速フーリエ変換のためのコードをJSで書いていたんですが、色々とあってiOSネイティブで作り直してみるということがありました。 同様のコードをSwiftに移植して、さぞ速くなる
React Nativeで使うために高速フーリエ変換のためのコードをJSで書いていたんですが、色々とあってiOSネイティブで作り直してみるということがありました。 同様のコードをSwiftに移植して、さぞ速くなる
先日React NativeでやったことのiOSネイティブ実装版です。 React Native版はこれ↓ https://blog.piyo.tech/posts/2018-05-20-image-rgba-react-native/ んで、Swift版なんですが、いい感じに実装してくれているEasyImagyというライブラリを見つけたので
iOSのUIをそのまま画像にする方法です。AVCaptureOutputで撮った写真と何かのViewを合成した画像を出したいみたいなときに使えます。 以下のコードでUIImageに変換ができます。ここで
iOSのカメラというかAVFoundationにはAdobeのLightroomアプリのようにホワイトバランスやシャッタースピードなどをカスタマイズするAPIがあります。 ドキュメントを読んでみて難しい
iOS11から使えるようになったVisionフレームワークというのを使うとものすごく簡単に顔認識が可能です。裏ではCoreMLが使われているということで機械学習ベースの顔認識のようです。 ちょっと動かし
AVCaptureOutputで撮影した写真はUIImageViewに表示したり本体のフォトアルバムに保存する限りは問題ないのですが、別のソフトウェアやライブラリが向きを正しく解釈してくれなくてうまく
いやー、7年iOSやってても全然しらなかったんですが、Segueを自作するとちょっと便利ですね。 モーダルで開いたViewControllerを閉じるときにボタンを置いてコードを書くのは面倒だなーと思っ
SCLAlertView-Swiftがサクッと使うのにいい感じです。 https://github.com/vikmeup/SCLAlertView-Swift 簡単ですが、使用例です。サンプルアプリにボタン3つおいておきます。 showSuccessで成功時のアラートが、showErrorで
React Nativeでアプリを書くことができたとしても、アプリをリリースする先はiOSのApp Storeであったり、Google Playだったりします。リリースするためには各プラットフォームでの作法や、コー
社内用に作ったiPhoneアプリをメンバーに配るのにTestFlightのベータ配布を使いますが、いちいちメールアドレスを使うのが面倒です。Google Playにはオープンベータテストにしておくと参加