Google Cloud Next 17 in Tokyo 基調講演を振り返る
こんにちは、Goodpatch で Prott のエンジニアをやっています @urapico です。
Prott開発チームは、2017/6/14,15に開催された「Google Cloud Next’17 in Tokyo」に参加してきました。
Google Cloud Japan 公式ブログ: Google Cloud Next ’17 in Tokyo 開催!
去年の同イベントにも参加しましたが、今年はエンジニア中心ではなく、多種多様な業界の方が参加していました。既に「クラウド」や「AI」といったワードが、IT系企業だけではなく様々な業態の事業で活用されていることを肌で感じられるイベントでした。
現在社内で開発中のプロダクトも、Google Cloud Platform(以下、GCP)上で構築しています。
今回は2日間行われたイベントの基調講演を中心に、エンジニアの視点で振り返っていきたいと思います。
目次
1日目 基調講演
1日目の基調講演は、 “働き方改革” の話を中心とした、主にエンタープライズに向けた内容でした。
Google Cloud の勢い
基調講演の中で強調されていたのは、エンタープライズ系ユーザーの増加でした。
去年のイベントでは、IAM系などの機能がまだ不十分で、エンタープライズ系の企業がGCPを利用するのは珍しく、AWSと併用して試験的に導入しているなどの事例が発表された程度でした。しかし、そのような課題は既に解決されており、エンタープライズ系の企業もGCPだけで運用している事例が増えていました。
750名以上のセキュリティエンジニアと、セキュリティチップ Titan
去年の同イベントでは500名と発表されていたセキュリティエンジニアが、今年は750名以上と大きく増員していました。
セキュリティに対する膨大な知識と対応力が、Google の各サービスの強みの1つになっていると思われます。また彼らは、データセンターのサーバーだけではなく、中の基盤も含めて設計・構築しています。“Titan”というセキュリティチップも開発しており、BIOSレベルでセキュリティを担保できるようになっています。
Bolstering security across Google Cloud
もはやGoogle並みの、トータルで高いセキュリティレベルを一般的な企業で構築することは難しいと感じました。
Data Loss Prevention
Data Loss Prevention (DLP) API | Google Cloud Platform
Data Loss Prevention(以下、DLP)というセキュリティ機能のデモがありました。これは、社内で保持する機密情報を最低限にすることによって、情報漏えいを防ぐことができます。
例えばチャットなどを活用してユーザーサポートを行う場合。やり取りは保存しておきたいけど、ユーザーがチャット上にマイナンバーカードなどの画像情報をアップしてしまった際に、DLPによってマスク処理が施され、機密情報を削除してくれます。現在、約40種類の機密情報を自動で識別することができるようになりました。
今後、企業のコンプライアンスを推進する重要な機能となりそうです。
世界中に張り巡らされた独自の光ネットワーク
Googleが独自で構築した光ネットワークは世界中に張り巡らされていて、各ISP事業社と提携・仮想的に接続されています。
GCP上で構築されたサービスにアクセスする場合、Googleが世界中に構築した一番近いPOPというネットワークの入り口にアクセスし、そこからGoogleの最適化されたネットワークを活用する仕組みとなっています。
私個人としては、昔ネットワーク周りで苦しんだ記憶がありますので、非常に魅力的な内容でした。
2日目 基調講演
2日目の基調講演は、1日目に比べてエンジニア寄りの内容でした。
GCPの1分単位の課金
クラウドを活用する利点として、必要なときに必要な分のリソースを確保できる点があります。また開発などでも利用するケースが多く、クラウド的な活用としては、サーバーやクラスターなどを作っては壊す、を繰り返します。その時に気になるのは、サーバーの使用料金です。その他のクラウドサービスだと、1時間単位での課金が一般的でしたが、GCPは1分単位で計算され、利用者のコスト削減となり非常に有り難い仕組みとなっています。
*この課金の計算方法・実装方法に関しては、1日目のセッション「Google Cloud Platform における課金の仕組み」で解説していました。
カスタムVMサイズ・推奨機能
GCPでは、VMのリソースをカスタマイズすることが可能になっています。また、GCPではアプリケーションのリソースの使用量を自動で判別して、余分なリソースを使っているVMに対して適切なサイズを提案してくれる機能も備えています。よりインフラの無駄を省くことが可能になっているそうです。
この辺りは、インフラを担当する人間としては、非常に気になる機能でもあり、ビジネスサイドとしても嬉しいものですね。
Cloud Spanner
Cloud Spanner | 大規模な自動シャーディングとトランザクションの整合性 | Google Cloud Platform
水平スケーリング可能なリレーショナル・データベース「Cloud Spanner」が先日リリースされたので、その説明とデモが行われました。グローバルスケールで、可用性と堅牢性が保てるという、デモを見ていて夢のようなデータベースに感じました。すでに、Googleのプロダクトでも利用されていて、アドワーズの裏側でCloud Spannerが利用されているそうです。データベースの最適化も裏側で自動で行われるようで、パフォーマンスも含めて全て任せることが可能です。
BigQuery Data Transfer Service
Google BigQuery Data Transfer Service | Google Cloud Platform
現状は、Google のいくつかのサービス間のみ利用可能ですが、サードパーティのサービス間でも利用可能になるそうです。
今までは、大量に生成されたサービスのログをBigQueryに送る方法や、そのような基盤を構築した際の運用コストが問題でした。そこを一気に解決してくれるサービスになりそうで、個人的にはとても楽しみです。
Video Intelligence API
Cloud Video Intelligence – 動画コンテンツ分析 | Google Cloud Platform
以前は画像を解析する機能はありましたが、動画には対応していませんでした。なので、今回の発表を待ち望んでいた方も多かったと思います。デモを見ていても非常に面白く、動画のどの部分に、どういった人・モノ・動物などが写っているのかも解析できていました。さらに、犬種など詳細情報までも判別できるようです。このAPIの解析結果は英語のみですが、Translate APIと組み合わせて、日本語化することも可能とのことでした。
さいごに
世界的なサービスやゲームをGCP上で構築して成功している事例や、工場の製品テストの仕分けで、Tensorflowを導入して、より生産的な組織づくりに成功している事例などがとても増えていました。このような傾向は、Google側のサポートが充実してきたことも関係すると思います。多くのサービス開発者が、新しく導入したいサービスのサポート体制を検討材料としていたのではないでしょうか?これは、非常に嬉しいことです。
さて、Goodpatchでは、GCPやGo言語などをさらに活用して、より良いプロダクト開発を進めている段階です。もしこのGCPやGo言語を使った開発に興味のあるエンジニアの方入れば、是非、ご応募お待ちしています。