Microsoft Azure
Microsoft de:code 2018の基調講演と聞いたセッションについて、自分の感想まとめです。ほぼTwitterを貼っただけです。 会場の雰囲気 基調講演のサテライト会場に着くと、ピアノジャックのおしゃれなBGMに乗ってループデモが流れていました。 #decode18 会場…
www.microsoft.com 後にde:code2018と感想を比べたくなったので、自分のためにまとめます。 実際の発表内容などは、他のちゃんとまとまったブログを読んだほうが早いと思います Microsoft Build 2018 Day 1 Keynotebuchizo.wordpress.com Microsoft Build 20…
普段は開発にもメモにもVS Codeを使っているのですが、VS CodeはChromebook等では使えません。そこでVS CodeのエディタエンジンであるMonaco Editorを、Azure Web Appsにデプロイして、PWAとして使ってみました。 PWAにすることで、ブラウザさえあればオフラ…
3行まとめ ※2018年1月4日時点の情報 任意のタイミングで再起動するセルフサービス期間は2017年12月28日 午前9時00分に開始し、2018年1月4日 8時30分に終了した これは、開始日も終了日も当初の予定より約5日前倒しされた 以降は予定メンテナンス期間となり、…
引越して1ヶ月半、ようやく家にネットが通ったので何かコードを書こうと思いました。 Microsoft Azure Cognitive Servicesには便利そうなたくさんAPIがあります。 そのうちComputer Vision APIを使うと、画像を解析して説明文などを自動生成できます。 参考:…
ゴリラの画像ならば「animal」、ラーメンの画像ならば「food」、iPadならば「computer」といった具合で、画像に自動でタグ付けをしてみました。 マイクロソフトのCognitive Servicesのうちのひとつ、Computer VisionをRuby on Railsから利用することで、簡単…
先日、Azure SQL Databaseに『クエリ エディター』という機能がパブリック・プレビューで公開されました。 Public preview: Interactive query experience for SQL databases A new lightweight T-SQL editor within the Azure portal is available for all …
Microsoft Azure Machine Learning(Azure ML)を使って、 合唱音源の新着情報 (twitter@s2terminal) の被リツイート情報 合唱音源の新着情報.com のツイート毎のデータベース内の情報 以上を組み合わせて、RTを評点としてAzure Match Box Recommender モジ…
Microsoft AzureのmBaaS(Mobile Backend As A Service)である Mobile Apps を使ってみました。 azure.microsoft.com コードを書かなくてもバックエンド機能を提供できるので、すでにAzure上にデータを持っている私にとって、かなり楽にアプリを作れるはず…
Azure上の仮想マシンからlogwatchによるレポートメールを毎日送っていたのですが、ある日突然届かなくなってしまいました。 /var/log/maillog を見てみると「status=bounced」になっており、以下のようなメッセージが出力されていました。 Unfortunately, me…
ふと「はてなブックマークしたURLをPocketに送りたい!」と思いIFTTTを探してみたのですが、残念ながらはてブに対応していませんでした。 しかしpocketにはAPIがあり、はてブにはweb hookがあります。 これらを繋ぐAPIを開発すれば要望は満たせるのではない…
開発中のWebサイト「合唱音源の新着情報.com」で、データベースにはSQLite(Webサーバ内のローカルファイル)を使っていました。 しかしスケーラビリティや耐障害性を考慮し、SQLiteを捨ててデータベースサーバを導入することにしました。 (Webサーバのログイ…
合唱音源の新着情報.com を作りましたので、その技術的な背景を書き残しておきます。 概要 かつて、 twitterの合唱音源の新着情報 の投稿を自動化するためにアプリケーションを開発しました。 Twitter投稿をデータベースアプリケーションで自動化する - back…
合唱音源の新着情報を運営してきて 真面目に分析 するにあたり、 1600件程度の自由形式なテキストデータを都度grepして分類・集計するのは限界だと思いました。 Twitter上のテキストデータをマスタとするのではなく構造化されたデータベースをマスタとして扱…