バッテリー監視のMacアプリを作ったんだけど難しかった
久しぶりにMacアプリを作りました(5年ぶりぐらい)。難しかったです。 Macbook Proをドッキングステーション経由の給電で使ってるせいか、たまに接触が悪いのか充電できない状態になることがあります。気がついたら
久しぶりにMacアプリを作りました(5年ぶりぐらい)。難しかったです。 Macbook Proをドッキングステーション経由の給電で使ってるせいか、たまに接触が悪いのか充電できない状態になることがあります。気がついたら
これまでは問題なかったんですが、機能の追加でAPIリクエストを全部待ってから次の処理をしたくなりました。なのでPromise系のライブラリを導入して、きちんと待機することにしました。 Promise系の
iOSアプリの開発において、デバッガーをアタッチできないときのデバッグは骨が折れます。その最たる例がPush通知から起動するときだと個人的には思います。 アプリが起動していない状況から起動するときに挙動
iOSで仕方なく少し待ってから処理を実行するてのを時々やりたくなるんですが、毎度書き方を忘れるので、自分用にメソッドを定義して使っています。 どこかグローバルなところに定義しとくとアプリ全体で使えるので
CIFilterを使う CIColorControls inputBrightnessに値を設定 値は−1.0〜1.0 import CoreImage extention UIImage { func adjustBrightness(brightness: Double) -> UIImage? { let ciImage = CIImage(cgImage: self.cgImage!) let filter = CIFilter(name: "CIColorControls") filter?.setValue(ciImage, forKey: kCIInputImageKey) filter?.setValue(brightness, forKey: "inputBrightness") guard let newCIImage = filter?.outputImage else { return nil } let context = CIContext(options: nil) guard let cgImage = context.createCGImage(newCIImage, from: newCIImage.extent) else { return nil } return UIImage(cgImage: cgImage, scale:
React Nativeで使うために高速フーリエ変換のためのコードをJSで書いていたんですが、色々とあってiOSネイティブで作り直してみるということがありました。 同様のコードをSwiftに移植して、さぞ速くなる
先日React NativeでやったことのiOSネイティブ実装版です。 React Native版はこれ↓ https://blog.piyo.tech/posts/2018-05-20-image-rgba-react-native/ んで、Swift版なんですが、いい感じに実装してくれているEasyImagyというライブラリを見つけたので
iOSのUIをそのまま画像にする方法です。AVCaptureOutputで撮った写真と何かのViewを合成した画像を出したいみたいなときに使えます。 以下のコードでUIImageに変換ができます。ここで
iOSのカメラというかAVFoundationにはAdobeのLightroomアプリのようにホワイトバランスやシャッタースピードなどをカスタマイズするAPIがあります。 ドキュメントを読んでみて難しい
AVCaptureOutputで撮影した写真はUIImageViewに表示したり本体のフォトアルバムに保存する限りは問題ないのですが、別のソフトウェアやライブラリが向きを正しく解釈してくれなくてうまく