マイブーム@技術と生活

仕事や生活に関わる技術的なことを記述します。

ゲーム事情

自分のゲーム事情は、以下のとおり。

ポケモンGO + ポケモンGOプラス
 (2017/02/12)
 バレンタインデーイベント開催中。プリンが多い。
 本郷三丁目あたりで、ポリゴン、コイル、ビビリダマ。
 (2017/02/19)
 金・銀世代のかわいくないポケモンたち。

スプラツゥーン2
 3/25(土)、26(日)、に、オンライン、スイッチで無料対戦イベント。

チームマッチ20人
 何ができるの?

小さな子供が食べないように、苦い味が付いたゲームカード

 

 

 

CES 2017 で自動車とテレビはまだ融合されていないことが明らかだった

(英語勉強中)

CES 2017 から戻ってきました。AI、ドローン、スマホでたくさんの技術革新を見てきました。しかし、自動車の巨大市場においては、更なる、映像サービスとユーザー体験の融合と、ネットワーク接続機能、の2つが望まれていると思います。これらの流行は、接続性に大きく依存します。接続性は自動車と娯楽を組み合せた複雑な技術革新の中心的役割です。TheMultiscreenBlog の CES レビューに書いたように、私はとても夢中になっています。

誰も将来を予測することができず、再発明し続ける産業分野に、参加していることを光栄に思います。また、GENIVI 懇親会でお会いできた皆様に感謝します。懇親会では、車載インフォテインメントの未来について、見識のある議論を行うことができました。

最後に、この機会をお借りして、協力会社の方々、お客様、読者の皆様に、新年のお祝いを申し上げます。

ニール・フォスター

node-proxy-https-example / proxy.js

(作成中)

https://github.com/TotallyInformation/node-proxy-https-example/blob/master/proxy.js
http://stackoverflow.com/questions/10085082/node-http-proxy-ssl-transparent

複数の仮想ドメインを構築する HTTPS プロキシサーバーを実行するプログラム

同じ IP アドレスで複数ドメイン(またはサブドメイン

ここで指定したように、1つの証明書にしたい場合は、ワイルドカード証明書、または、「Subject Alternative Name」拡張領域を使う必要がある

http-proxy は、https とルーティングテーブルを同時に使うことができないので、少し複雑な方法で対応した

 

 

 

企業トレンド

■ iPS細胞
 富士フイルム
  CDI
   エピソーマルベクター・末梢血
 (競合)リプロセル
 (体細胞由来)J-TEC
 アイロムグループ
  IDファーマ
   センダイウイルスベクター
   薬事法GMP省令(医薬品及び医薬部外品、医療機器及び体外診断用医薬品
  (関係)医学生物学研究所、ライフテクノロジーズ(米国)
  (関係)タカラバイオ
  (関係)大日本住友製薬、(関係)ヘリオス
  (非営利)理化学研究所バイオリソースセンター
  (感音性難聴)防衛医大
  (下肢慢性動脈閉塞症)九州大大学院薬学研究院
  (エイズワクチン)国立感染症研究所 エイズ研究センター
 京都大学
  iPS アカデミアジャパン(特許管理)

■ 自動運転
 ZMP
 (出資)フューチャーベンチャーキャピタル
 (出資)インテルキャピタル
 (遠い)アートスパーク、(傘下)エイチアイ(ロボット制御用ユーザーインターフェースの共同開発)

 

そして誰もいなくなった @ 白黒写真の自動色付け(早稲田大学)

アガサ・クリスティの映画、そして誰もいなくなった、をがんばって色付けしてみました。早稲田大学の白黒写真の自動色付けのウェブページを使いました。

Automatic Image Colorization・白黒画像の自動色付け

45枚変換して、その内、なんとなく色が付いたものが、以下の25枚です。

他は、特に、家の中が、茶色になってしまうようです。

 

f:id:sato7411:20161116175526p:plain

f:id:sato7411:20161116175600p:plain

f:id:sato7411:20161116175619p:plain

f:id:sato7411:20161116175640p:plain

f:id:sato7411:20161116175657p:plain

f:id:sato7411:20161116175720p:plain

f:id:sato7411:20161116175732p:plain

f:id:sato7411:20161116175758p:plain

f:id:sato7411:20161116175817p:plain

f:id:sato7411:20161116175845p:plain

f:id:sato7411:20161116175916p:plain

f:id:sato7411:20161116175935p:plain

f:id:sato7411:20161116180022p:plain

f:id:sato7411:20161116180121p:plain

f:id:sato7411:20161116180136p:plain

f:id:sato7411:20161116180204p:plain

f:id:sato7411:20161116180231p:plain

f:id:sato7411:20161116180327p:plain

f:id:sato7411:20161116180333p:plain

f:id:sato7411:20161116180346p:plain

f:id:sato7411:20161116180358p:plain

f:id:sato7411:20161116180409p:plain

f:id:sato7411:20161116180426p:plain

f:id:sato7411:20161116180458p:plain

f:id:sato7411:20161116180521p:plain

Taken at the Flood (満潮に乗って)

英語の勉強です。

abomination, accost, adamant, adze, agitate, arse
bailiff, barely, barrister, baronet, behalf, bigamist, billable, bloke, bludgeon, bonkers, bother, bribe, brunette, bugger, bunch
caper, charade, cherish, chum, colossal, compel, confetti, conjure, conscience, consequence, constitution, construe, corpse, corruptibility, creek, crook
damn, dangle, depravity, desecrate, despair, dismal, disposal
embark, extravagance
feckless, filthy, flabbergasted, flit, floozy
gabble, gallows, gloat, gore
imposture, indigo, indiscreet, inflammatory, insolent, intrusion, itch
jackpot
leach
mandate, mercy, mess
oblige, orgy
parishioner, paunch, pimp, plucky, prickly, prostrate, prurience, punctilious, purse
quid, quirk
ramification, rant, resurrect, riot
scrawny, scuttle, seance, sewer, shove, smother, smutty, sprint, stink, substantial, sundry, sustain, swan
tawdry, till, traipse, trespass
unequivocal, unscathed, unsolicited
veer, venal, vilify, vinegar, vouch, vulgar
waive

 

レシピ:肉野菜炒め

フライパンにて、野菜と肉を分けて焼く。

先に野菜の場合、野菜を焼いた後に端に寄せて、空いた所で肉のみで焼く。味付けは、火を止めてから、醤油。

野菜を後から載せて、サラダのようにする場合もある。マヨネーズを使用。

 

肉は、北海道産 産直牛切落し 304g 977円(税込) 100g当り298円、が良い(2017年9月2日)。

 

肉を片面だけ焼く(2017年10月28日)。

簡単なウェブ解析アプリを作るための node.js、request、cheerio の使い方

勉強のために日本語訳します。

https://www.digitalocean.com/community/tutorials/how-to-use-node-js-request-and-cheerio-to-set-up-simple-web-scraping

 

はじめに

本文では、ハッカーニュースサイトの、上位ランキングのリンクと、題名、URL、点数、コメント数など他のデータを取得するために、ホームページを走査します。これは、node.js を使ってウェブページからデータを取得するための、いくつかある方法の内の1つです。主に、Matthew Mueller 氏が作成した cheerio と呼ばれるモジュールを使います。cheerio はサーバーサイドで使うように設計された jQuery のサブセットです。

cheerio は軽量で、高速、融通が利き、jQuery に慣れていれば、使い易くできています。また、簡単な HTTP クライアントとして、Mikael Rogers 氏が作成した request モジュールを使います。

 

必要事項

node.js、jQueryVPSSSH の接続方法など基本的な Linux の管理・設定ができることが前提です。もし、node.js を使うことが初めてで、まだインストールしていなければ、お使いのOSへのインストール手順について、上記の Articles & Tutorials の章を参照してください。

 

プログラム

NPM を使って必要なモジュールをインストールします。次のコマンドを実行します。

npm install request cheerio

これは、現在の作業ディレクトリにのみ、モジュールをインストールします。全体にインストールする場合は、 npm install -g request cheerio を実行します。

ファイル scrape.js  を作成し、次の行を追加します。

var request = require('request');
var cheerio = require('cheerio');

これは、必要になるモジュールをすべて読込みます。

まずは request でハッカーニュースサイトのホームページを読込み、ページの HTML コードを表示しましょう。もし、エラーが無ければ、HTTP ステータスは 200 になります。

ファイルに次の行を追加します。

request('https://news.ycombinator.com', function (error, response, html) {
  if (!error && response.statusCode == 200) {
    console.log(html);
  }
});

node scrape.js でスクリプトを実行してみてください。端末画面に HTML コードが表示されるはずです。

目的のデータをどうやって抽出するかを調べるために、HTML コードで要素がどのように構成されているかを知る必要があります。良い方法は、Google Chrome に組み込まれているウェブデベロッパーツールを使って、目的の要素を調査することです。ウェブページで右クリックし「要素を調査する」を選びます。

次の例では、Chromeハッカーニュースサイトを開いて、右クリックし、上位ランク記事の題名を調査しています。

図1.

ウェブデベロッパーコンソールで確認すると、上位ランクの30個すべてのリンクと題名を解釈するためには、 クラス名 comhead が付いた「span」要素を探し出し、jQuery API 関数の prev() を使って、その1つ前の「a」要素を選べば良いことが分かります。

プログラムを次のように変更して、動作を確認します。

request('https://news.ycombinator.com', function (error, response, html) {
  if (!error && response.statusCode == 200) {
    var $ = cheerio.load(html);
    $('span.comhead').each(function(i, element){
      var a = $(this).prev();
      console.log(a.text());
    });
  }
}); 

プログラムを実行すると、期待したように、30個の題名の一覧が得られました。次に、残りの他のデータを解釈するように修正します。

request('https://news.ycombinator.com', function (error, response, html) {
  if (!error && response.statusCode == 200) {
    var $ = cheerio.load(html);
    $('span.comhead').each(function(i, element){
      var a = $(this).prev();
      var rank = a.parent().parent().text();
      var title = a.text();
      var url = a.attr('href');
      var subtext = a.parent().parent().next().children('.subtext').children();
      var points = $(subtext).eq(0).text();
      var username = $(subtext).eq(1).text();
      var comments = $(subtext).eq(2).text();
      // Our parsed meta data object
      var metadata = {
        rank: parseInt(rank),
        title: title,
        url: url,
        points: parseInt(points),
        username: username,
        comments: parseInt(comments)
      };
      console.log(metadata);
    });
  }
}); 

 

追加したプログラムの説明

1つ前要素の選択

var a = $(this).prev();

a要素より2つ上位の要素を解釈して、ランクを取得する

var rank = a.parent().parent().text();

リンクの題名を解釈する

var title = a.text();

a要素から href パラメータを解釈する

var url = a.attr('href');

HTML の表の次行から、subtext 子要素を取得する

var subtext = a.parent().parent().next().children('.subtext').children();

子要素から実際のデータを取得する

var points = $(subtext).eq(0).text();
var username = $(subtext).eq(1).text();
var comments = $(subtext).eq(2).text();

修正したスクリプトを実行すると、オブジェクトの配列が次のように出力されます。

[ { rank: 1,
    title: 'The Meteoric Rise of DigitalOcean ',
    url: 'http://news.netcraft.com/archives/2013/06/13/the-meteoric-rise-of-digitalocean.html',
    points: 240,
    username: 'beigeotter',
    comments: 163 },
  { rank: 2,
    title: 'Introducing Private Networking',
    url: 'https://www.digitalocean.com/blog_posts/introducing-private-networking',
    points: 172,
    username: 'Goranek',
    comments: 75 },
...

以上です。加えて、詳細な解析を行うために、抽出したデータを、MongoDB や Redis のようなデータベースに保存できます。scrape.js ファイルのプログラム全体を以下に示します。

var request = require('request');
var cheerio = require('cheerio');

request('https://news.ycombinator.com', function (error, response, html) {
  if (!error && response.statusCode == 200) {
    var $ = cheerio.load(html);
    var parsedResults = [];
    $('span.comhead').each(function(i, element){
      // Select the previous element
      var a = $(this).prev();
      // Get the rank by parsing the element two levels above the "a" element
      var rank = a.parent().parent().text();
      // Parse the link title
      var title = a.text();
      // Parse the href attribute from the "a" element
      var url = a.attr('href');
      // Get the subtext children from the next row in the HTML table.
      var subtext = a.parent().parent().next().children('.subtext').children();
      // Extract the relevant data from the children
      var points = $(subtext).eq(0).text();
      var username = $(subtext).eq(1).text();
      var comments = $(subtext).eq(2).text();
      // Our parsed meta data object
      var metadata = {
        rank: parseInt(rank),
        title: title,
        url: url,
        points: parseInt(points),
        username: username,
        comments: parseInt(comments)
      };
      // Push meta-data into parsedResults array
      parsedResults.push(metadata);
    });
    // Log our finished parse results in the terminal
    console.log(parsedResults);
  }
});