クラウドインフラ構築記

現在AWSの構築支援に携わっております。今注視しているのは、GKE、BigQuery、Google Dataflowなどサービスを展開しているGoolge Cloud Platformです。

2014年11月3日
から hiruta
0件のコメント

VyOS Users Meeting Japan #2に参加しました。 #vyosjp

昨日VyOS Users Meeting Japan #2に参加し、@trickv のVyOS 1.1のAMIを作成するbuild-amiを実際試してみました。

  • About vyos/build-ami

https://github.com/vyos/build-ami

※Googleで検索すると、「https://github.com/hydrajump/vyos-build-ami.git」もヒットするが、こちらは、run-instancesの–block-device-mappingsのDeleteOnTerminatationのvalueがダブルコーテーションで囲ってあるので、途中でエラーになるので、修正が必要。こちらは、VyOS 1.0.2が入ります。

上記スクリプトには、vyos 1.1のISOは入っていないので、ミラーサイトなどからリンクを追加要

上記スクリプトだと、Ubuntu 12のAMIを探してくれるようで、どのリージョンでも汎用的に利用が可能です。

bootstrap_host_ami_search: ubuntu-precise-12.04-amd64-server-20140217.1
  • VyOS VXLAN and Linux Device Driver

[slideshare id=41007524&doc=vyos-users-meeting2nd-vxlan-pub-141101223520-conversion-gate01]

  • Kauli SSPにおけるVyOS導入事例

[slideshare id=40996937&doc=vyosusersmeeting201411-141101114135-conversion-gate02]

1日で4億回、VyOSでトラフィックを裁いているとのこと。VyOSはかなりのトラフィックを裁けるか。

  • Debian JessieでVyOSをビルドする話、vyos-cfg-zabbix-agentの話

Debian jessieの下にcowbuilderの環境を作る話。

VyOSがAMD CPUの環境で動かない話の中で、原因切り分けでstraceを使っていました。strace自体、yumから簡単にインストール可能です。

  • 単位時間あたりの新規 NAT session 数の最大値を測ってみた

結果、20,000パケットまでは、ErrorRate 0。

tcpreplayのツールの紹介 → http://tcpreplay.jp

2014年10月19日
から hiruta
0件のコメント

OSC2014 Fallに参加しました。 #osc14tk

本日OSC(オープンソースカンファレンス)2014 Fall二日目に行ってきました。Ⅰ日目は、第四回クラウドデザインパターン勉強会と被ったため行けませんでしたが。

視聴したセッションは以下になります。

  • OpenStack Netron ネットワーク環境構築について、プラグインOVSとMidoNetの比較検証評価
    • Open vSwitchを使った検証
      • 単一ノードで、871.04Mbps
      • Network Nodeをスケールアウトしてもスケールアウトした分のスループットはでず、単一と変わらない。原因として、L3用処理ノードが一台なので、ここがボトルネックになるとのこと
      • Network Nodeを停止しても、ノードの自動移動、セッションが行われない
    • MidoNetのご紹介と検証結果
      • MidoNet Agentのみですべての機能を使用
      • スケールアウトしても、スループットは台数分出る

検証には、https://github.com/wg/wrk のHTTP Benchmark toolを使用したとのこと

  • クラウドOS 「OSv」のご紹介
    • 軽量OS
      • memcached等単一のアプリケーションをlaaSで動かすにはオーバーヘッド
      • 必要最低限の機能のみ実装
    • 対応アプリ
      • Java
        • Tomcat
        • Hetty
        • Solor
      • Ruby
      • Node.js
    • CLI (Luna CLI)、cloud init、OSv GUI
    • Capstan ツールについて
    • OSvには、AWS、Google Compute Engineに対応
      • AWSには、AMI(Community AMIで検索するとOSv demoとなるが)で起動できるが、Google Compute Engineには、capstanから
  • DevOps を実現する為のChef 活用テクニック+ Chef 12 最新情報
    • Chef 12
      • Chef-soloを廃止されるので、chef-client-localへの切替
      • Enterprise chefの機能の統合
      • chef subscription
    • Chefはreceipeが書いた順番で実行するとは限らない。
    • chef-client local = chef-zero
    • Chefアンチパターン
      • 孤独なChef使いにはならないように、receipeの引き継ぎは必須
    • CI環境、Test-kicthen、Berkshelf、librarian-chef、foodCriticで書式のチェックはできるが、実際は構築してみないとわからない
  • 実績多数のOSS、CloudStackとXenServerで作るlaaSクラウド環境
    • OpenStack、CloudStack
      • 部品を提供しているのが、OpenStack、CloudStackは、all-in-one製品
    • CloudStackからXeonなどのハイパーバイザのAPIを実行する
    • プライマリストレージ、セカンダリストレージ
      • 双方の仲立ちをするセカンダリストレージVM

 

  • Linux-HA Japan Project PacemakerなどLinuxを用いた高可用ソリューションのデモ
    • LANを抜いて、2系から1系に切り替わるデモ
  • フォースメディア QNAPのNAS
    • デモ機はRAID5
    • GuestOSで、Windows8を起動するデモ

2014年10月13日
から hiruta
0件のコメント

複数台構成する際の月額料金

複数台構成を構築するのに、どの位月額かかるかAWSとさくらのクラウドで試算してみました。

まずは、AWSから

  • ELB ×1
  • EC2 t2.medium (vCPU 2/4G)  $0.08
    • 外付けEBS 50GB
  • RDS db.t2.micro (vCPU 1/1.7G) $0.026

アウトバウンドトラフィック量100Gを想定しています。

計 $79.93 = ¥8,770 (1$=¥110)

次に、さくらのクラウド

  • 2コア/4G ¥5,292
  • 1コア/1G ¥1,965
  • スイッチ ¥2,160
  • ロードバランサー 標準プラン シングル ¥2,571

計 ¥11,977

AWSの方が安い結果が。その上、さくらのクラウドてAutoScalingに相当するものが自動復旧する仕組みを構築できない。

2014年10月11日
から hiruta
0件のコメント

RDS General Purpose (SSD)を試してみました。

昨日、RDSのStorageに、General Purpose (SSD)が使えるようになりましたので、早速ディスク性能を計測してみました。

インスタンスタイプは、m3.large、東京リージョンで実施。

General Purpose (SSD)の結果から

$ mysqlslap --no-defaults --concurrency=50 --iterations=1 --number-int-cols=7 --number-char-cols=8 --engine=innodb --auto-generate-sql --auto-generate-sql-add-autoincrement --auto-generate-sql-load-type=key -auto-generate-sql-write-number=1000 --host=rds-stg-webdb.cjjsp36ssxxa.ap-northeast-1.
rds.amazonaws.com --port=3306 --user=root  -p webdb
Enter password:
Benchmark
        Running for engine innodb
        Average number of seconds to run all queries: 0.065 seconds
        Minimum number of seconds to run all queries: 0.065 seconds
        Maximum number of seconds to run all queries: 0.065 seconds
        Number of clients running queries: 50
        Average number of queries per client: 0

Magneticの結果は

$ mysqlslap --no-defaults --concurrency=50 --iterations=1 --number-int-cols=7 --number-char-cols=8 --engine=innodb --auto-generate-sql --auto-generate-sql-add-autoincrement --auto-generate-sql-load-type=key -auto-generate-sql-write-number=1000 --host=rds-stg-webdb.cjjsp36ssxxa.ap-northeast-1.
rds.amazonaws.com --port=3306 --user=root  -p webdb
Enter password:
Benchmark
        Running for engine innodb
        Average number of seconds to run all queries: 0.075 seconds
        Minimum number of seconds to run all queries: 0.075 seconds
        Maximum number of seconds to run all queries: 0.075 seconds
        Number of clients running queries: 50
        Average number of queries per client: 0

簡単な負荷テストで微妙ですが、SSDの方が予想通り速い結果ができました。db.t2.microでもGP (SSD)は使用できます。

ディスクタイプ変更する場合は、7-8 Hour程度かかるとmodify画面の下部に記載されます。

本ブログでも、General Purpose (SSD)を利用しています。

2014年9月21日
から hiruta
0件のコメント

Compute Engine Autoscalerを試してみました。 #gcpja

Compute Engine のオートスケール機能を使用してみました。

Compute Engine Autoscalerは、現在Limit Preview機能ですので、デフォルトでは使用することができませんので、ここからリクエストを申請する必要があります。

まずは、Autoscaler機能は現在Limit Previewですので、CLI(gcloud)初期状態はpreview機能は使えませんので以下コマンドを有効にしておきます。

 gcloud components update preview 

Replica Poolファイルを作成します。AWSでいうLaunch Configurationに相当すると思われます。

 vi replica.template 
{ "template": {
    "vmParams": {
      "machineType": "n1-standard-1",
      "baseInstanceName": "my-replica",
      "disksToCreate": [{
        "boot": "true",
        "initializeParams": {
          "sourceImage": "https://www.googleapis.com/compute/v1/projects/centos-
cloud/global/images/centos-7-v20140903",
          "diskSizeGb": "10"
         }
       }],
     "networkInterfaces": [{
       "network": "default",
       "accessConfigs": [{
         "type": "ONE_TO_ONE_NAT",
         "name": "External NAT"
       }]
     }]
   }
  }
}

上記で作成したReplica Pool configでReplica Poolを作成します。

gcloud preview replica-pools --zone asia-east1-a create --size 1 --template replica.template asia-east1a-pool
Replica pool asia-east1a-pool is being created.

replia数を最小値、最大値を1にしてオートスケールの設定をします。

gcloud preview autoscaler --zone asia-east1-a create aisa-east-aurtoscaler --max-num-replicas 1 --min-num-replicas 1 --target-cpu-utilization 0.6 --target https://www.googleapis.com/replicapool/v1beta1/projects/skillful-fx-531/zones/asia-east1-a/pools/asia-east1a-pool

VMインスタンスが起動することが確認できます。そこで、replica数の最小値、最大値を2にしてみます。時間をたたずにもう1つ VMインスタンスが起動できることが確認できます。Replica数を2から1にしても、1 VMインスタンスがterminateされます。

gcloud preview autoscaler --zone asia-east1-a update aisa-east-aurtoscaler  --target https://www.googleapis.com/replicapool/v1beta1/projects/skillful-fx-531/zones/asia-east1-a/pools/asia-east1a-pool --max-num-replicas 2 --min-num-replicas 2

ただ、Replica数を0にすることはできないようです。Autoscalerを発動しないようにしておくことはできなそう。

gcloud preview autoscaler --zone asia-east1-a update aisa-east-aurtoscaler  --target https://www.googleapis.com/replicapool/v1beta1/projects/skillful-fx-531/zones/asia-east1-a/pools/asia-east1a-pool --max-num-replicas 0 --min-num-replicas 0
<pre>{
 "error": {
  "errors": [
   {
    "domain": "global",
    "reason": "required",
    "message": "Required field not specified: autoscaling_policy.max_num_replicas."
   }
  ],
  "code": 400,
  "message": "Required field not specified: autoscaling_policy.max_num_replicas."
 }
}

SSD Persistent diskに対応していないゾーンで、disk typeにSSD diskを指定するとエラーになります。SSD Persistent diskに対応していないゾーンは、us-central1-aになります。

VMインスタンスを障害をみたてて、「nmcli c down eth0」でインスタンスに接続できない状況を発生させて、自動復旧できるか試してみました。

が、自動復旧されない。Replica PoolにHealthChecksがある。→ここ

screencapture-developers-google-com-compute-docs-replica-pool-v1beta1-pools

使おうとすると、Unknown field nameとなる。???

 

2014年9月7日
から hiruta
0件のコメント

第4回 コンテナ型仮想化の情報交換会@東京に参加しました。 #lxcjp

昨日 niftyセミナールームで行われた第4回 コンテナ型仮想化の情報交換会@東京に参加しました。

コンテナ技術についてインプットが得られた一日でした。

Cgroupあれこれ

コンテナのリソース管理のキモのCgroupについての話でした。

dockerなどのコンテナではコンテナごとにリソース制御が重要

※AmazonLinux 2013.02、t2.microでリソース Limitを試してみました。

sudo yum install libcgroup

リソース Limitを以下のファイルに記載して、cgconfigサービスを再起動します。CPUをMax 25%に制限する設定になります。

vi /etc/cgconfig.conf
group limittest {
 cpu {
   cpu.cfs_quota_us  = 250000;
   cpu.cfs_period_us = 1000000;
 }
 cpuacct {
 }
}

リミッターをかけて、perlbrewのビルドを実施したコマンドになります。

time cgexec -g cpu:limittest /root/perl5/perlbrew/bin/perlbrew install perl-5.18.2

real 44m10.634s
user 9m5.304s
sys 0m29.512s

Using LXC on Production

mixiがLXCをProduction環境(本番環境)に導入した話

まずは、KVMで仮想環境を構築

が、ディスクIO、ディスク容量を多く消費、BIOS依存(IntelVT/AMD-V)などあった。

次に、OpenStack

scriptを使って構築が楽に

いよいよLXC

2013当時はまだ0.X 2014-02にLXC 1.0がリリースされるが、待てないので、0.9で検証開始

Dockerの簡易版といえるmixi運用に必要な機能に絞って独自LXCラッパーtrailerを開発

コンテナ系はCPU他リソースを共有するので、リソース管理が重要

ファイルディスクリプタ、カーネルパラメータのチューニングが必須 ここ にLXCチューニングについて詳しく書かれています。

CoreOSでDockerクラスタリング

dockerに最適されたCoreOSについての話

コア部分にはユーザ側でアップデートはできない(OSアップデートは勝手にやってくれる)、追加でアプリケーションを入れることができないので、docker経由でアプリケーションを入れる必要があります。

dockerなどはデータの永続化が難しいので、RDBとかは外部ディスクに保存することが必要。(RDS、Goole Cloud SQLを利用するのもあり)

GCE上で、CoreOSのVMを複数起動させて、Failoverのデモ(当日はうまいかなったようですが)

後日試してみようと思いますので、近日アップデートします。

コンテナ?これfreebsdでもできるよ

FreeBSDのjailについて

Oracle Solaris コンテナ技術

Solarisコンテナ技術である Oracle Solaris Zoneについて

FreeBSDのjailに実装的に似ている

LXC最新情報

共通で話されたことが、リソース管理の重要性がありました。

2014年8月16日
から hiruta
0件のコメント

8/15 SendGrid nightに初参加しました。 #eytokyo #SendGrid_JP

昨日8/15 Engine yardで行われたSendGrid nightに参加しました。

  • 構造計画研究所 中井勘介さんによるSendGrid入門

SendGridは決済とかトランザクションメールの処理が得意

ユーザ登録で空メールによる登録を行っているサイトも多々見受けられますが、これにもSendGridのWebhookで実現が可能

Webhookは無料プランでも使えてしまう。無料でもかなり遊べる印象

ruby、php、node.js等のライブラリも充実している

使い方によっては、停止措置を受けてしまうので、使う場合は、ほどほどに

あとは、SendGridのUpdateについて

      • トランザクションメールの複数テンプレート対応
      • SendGridから相手サーバーの間の通信の暗号化(TLS)
        • 本当に暗号化しているかは現状ログで確認するしかない。受け手のヘッダをみればわかるが。
      • sendwithusの紹介
      • クリックトラッキングの中間処理でHTTPプロトコルで通信していたのをHTTPS化
  • Ken Apple氏によるCode workshopのデモ、EventKitのダウンロードからインストールまでのデモ
    • Code workshopによるフォームでパラメータを与えれば、curl、phpコードを出力してくれるデモ
    • ウォームアップ
      • 最初はウォームアップ済IPからメール送信する割合が95%を少しずつ固定IPで送信する割合を増やす
    • SendGridの情報集約ツールEventKitのインストールから実際の動作までのデモ
      • sqliteをバックエンドで利用
        • 少々修正すればMySQLとかにもストアできるようです
      • 検索ワードは現状1バイト文字に限る。(日本語は非対応)

ここからLT

  • 株式会社FLECT 小西さんによるSendGridサンプルの紹介

  •  クラスメソッド 大瀧さんによるLT
    • Amazon SES
      • 共有IPを使っているため、IPがBlockListに入っていてメールがブロックされている場合あり
      • SES自体グローバルのサービスのため、ガラケーとかの日本独自のサービスには非対応
    • SendGridとの使い分けは必要か。

2014年8月12日
から hiruta
0件のコメント

IDCFクラウド試用してみました。 #idcfrontier

JAWS-UGさいたまの勉強会かどうかでアンケートに、「IDCFクラウド30日無料トライアル希望」のような項目がありましたので、チェックしたところ、1週間ほど前に、メールで無料クーポンコードが送られてきました。

アカウント作成編

トライアルでも登録の際、認証があります。電話認証&国際SNSで行うことができますが、電話認証ネガティブなEnglishなので、聞き間違うことがある。また、国際SNSですが、レスポンスが若干遅かった。

仮想マシン起動

CentOS6.5を使用してみました。

初期起動時は時間がかかる印象。二度目以降は速いようです。SELinuxはデフォルトで無効になっています。

仮想マシンを作るとグローバルIPアドレスが付与されますが、ポートフォワード設定を行わないと、仮想マシンにSSH接続も行えない。

AWSのように、public IP付与するようにすると、仮想マシンに接続できると望ましい。

ディスクパフォーマンス

ディスクはかなり高速な部類。

CPU 「S4 ( 1CPU / 4GB RAM )」※AWSだとm3.medium相当。
メモリ CentOS6.5

# hdparm -t /dev/sda1

/dev/sda1:
Timing buffered disk reads: 348 MB in 3.00 seconds = 115.96 MB/sec
# hdparm -t /dev/sda1

/dev/sda1:
Timing buffered disk reads: 468 MB in 3.01 seconds = 155.68 MB/sec
# hdparm -t /dev/sda1

/dev/sda1:
Timing buffered disk reads: 516 MB in 3.01 seconds = 171.30 MB/se


ファイアウォール

ポートベースで設定が行う。SSH、RDP、HTTP、HTTPSとかよく使うプロトコルについては簡易設定のような機能がほしいところ。

 

 

2014年7月27日
から hiruta
0件のコメント

先日7/26 松戸市民会館で、JAWS-UG千葉 第4回勉強会 「AWS運用縛り」が開催されました。 #jawsug #chibadan

先日7/26 松戸市民会館で、JAWS-UG千葉 第4回勉強会 「AWS運用縛り」が開催されました。

 

  • クラメソ保守運用担当からみたAWS使っててよかったことtogetter まとめ dlvr.it/6R8T3C

クラスメソッド株式会社 植木 和樹さん@czkuk

AWSの運用をどうすべきかのお話。(AWSサポートはすばらしい。「Business サポート」以上)

Management Consoleより、aws-cliの方が手順が作成しやすい。

AWS運用チェックリストもオススメ。ベース文書は英語ですが(Operational Checklists for AWS)、ポイントをhttp://dev.classmethod.jp/cloud/aws/aws-operational-checklist/ にまとめれています。

  • エンジニア3人で支える月間10億PV

株式会社DoBoken 磯部 有司さん

ZenClerk http://zenclerk.com/  の運用上の工夫

ZenClerk アーキテクチャ

スポットインスタンスを、100→200と一気に増やすと、全体(リージョン)の相場上がって、全部死( terminate )

開発ツール Slack

Redmineは入力項目多いことで使用していないとこと

監視は、MongoDBの健康状態を第一に考えている (MongoHQ )

  • ドキュメントを書こう! 運用自動化時代のドキュメンテーション

運用設計ラボ合同会社 波田野 裕一さん @tcsh

AWS Summit  クラウド時代の運用 パネルで視聴しましたが、自動化の前に、構造化設計Why ( ドキュメント)が重要

ドキュメントツール SPHINKの紹介

※ JAWS-UG CLI 支部( JAWS-UG初の専門支部立ち上げ)

facebook https://www.facebook.com/groups/jaswug.cli/

  • 「AWSを含めたハイブリッド環境の監視の実現 ~Zabbixのクラウド対応モジュールHyClops~」

TIS 株式会社 池田 大輔さん@ike_dai

ログとかは長期の傾向を見る必要があるが、CloudWatchは二週間分しか保存されない。

そこで、Zabbixでの監視

HyClops for Zabbix

 HyClops for ZabbixでCloudWatch連携できているのは課金情報のみ。EC2、ELB、RDSについては今後対応予定とのこと

最近リリースされたCloudWatch Logsは、ログのタイムスタンプは注意(ログのタイムスタンプはdatetime_formatで指定)

 

また、LT 4本も発表されました。

  • 「LEGOマインドストームでシステム監視」

株式会社Syun 高松 基広さん @TadaKazegaFuite

 

  • 「NO MONITORING NO LIFE – さぁ、監視を始めよう on AWS」

クリエーションライン株式会社 前佛 さん @zembutsu

  AWS × Muninの話

  • 「リアルタイムログ解析システムの裏側」

株式会社ナレッジコミュニケーション 奥沢 さん

Fluentd を、Kinesisに置き換えた話

Kinesisに置き換えたことで、WEBサーバーが増えても(スケールアウト)しても、構成変更が必要ない。

KinesisはRedShiftと相性がいいので、ログ分析には最適。先日東京リージョンでもKinesis対応したので、Kinesisの利用事例が増えるのではと予想される。

  • 「AWSサミット東京1日目のパネル<<クラウド時代の運用>>振り返り」

アマゾン データ サービス ジャパン株式会社 荒木 さん @ar1

 

2014年7月20日
から hiruta
0件のコメント

AWS Summit 2014 参加レポート #awssummit

7/17、7/18 AWS Summit 2014に参加してきました。JAWS-UG Night Partyその後の二次会まで23時ごろまで、AWSなどクラウドの話で終日盛り上がりました。受講したセッションについて、ポイントを記載します。参加したセッションは主に、Enterprise、Techlogyセッションになります。

  • TE-04 The philosophy & design on AWS OpsWorks


OpsWorksの沿革から、仕組み、バックで使用されているChef、デモがありました。OpsWorksはテスト、開発環境をスピーディに構築できる。
ビルドインサポートとして、HAProxy、Node.js、Gangliaなどがある

CloudFormationとの組み合わせ利用ももちろんOK
OpsworksはStage、開発環境構築等に最適

  • TE-05 クラウド時代の運用


システムのライフサイクルで一番長いフィーズだが運用の位置がここまで評価されていない
レガシー運用、DevOpsでの運用されている方々の話
自動化がブームだが、基本はドキュメントが大事。(Chefレシピ、JSONもドキュメントの一部)

 

  • TE-06 エンタープライズ向けAWSクラウドデザインパターンのご紹介(ネットワーク)

VPCの留意事項
VPCトは16bitが作成できるCIDR。VPCのCIDRは変更できないので、最初に考慮が必要。
※なるべきCIDRは取得できる限り丸ごと取っておくことが望ましい。
Network ACLsの使い方
共通ポリシなど最小限のポリシを適用しておくのがよい。e.x. 共通で制限できる通信
NATの冗長化、スケールアップ
外向けプロキシ
AZを使った冗長化
CDP候補? (システム再現パターン、インターネットサービスパターン、内部向けアプリケーションパターン、バックホームパターン)

  • EA-07 AWS上のシステムはこう作る!InfrastructureAsCode/ImmutableInfrastructureを実践した構築自動化とHinemosで実現するクラウド運用自動化

AWSでサーバー調達等は短くなったが、ミドル、検証テストは時間がかかる

自動化は必要

自動化する上のポイント
自動化コードに問題があった場合の対応
IMAG0154

自動化コード規約の必要性

HinemosはAWS APIとの連携 ※IAM Role使えるかはブースの担当者も???

Hinemos HA on AWS 9月リリース予定
※有償とのこと 料金は未定

IMAG0156

IMAG0156

  • TC-09 AutoScale×ゲーム ~運用効率化への取り組み~

AWS導入に至った背景

オンプレだと

休日夜間で即対応不可能 30分~2時間
機会損失、運用コスト

そこで、AWS導入

サーバー構築自動化が必要 (AutoScalling)

機能を詰め込んだAMIを検討したが、サーバーごとに設定が異なるため、その分AMIが必要。管理が煩雑
Chef receipeで検討。34項目が必要だが、サーバ構築に20分
Chef receipeの短縮のため、共通設定は一部AMIを利用することにした。

価格問題

オンデマンドだと価格が
リザーブドも検討したが、インスタンス変更の制約等がある
スポットインスタンス

スポットインスタンスは需要と供給で価格が変わる

スポットインスタンスを入札の変動状況を監視(Zabbix)
入札額が価格を下回ることでサーバー起動しない問題

LaunchConfigurationを複数用意することでConfig切替

アバター合成サーバーの負荷対策

S3マウントだと片系に集中、CPU負荷
GlasterFS

冗長化
ホストベースPeerによるノード追加

ノード生死の自動判別

Serfでノード追加制御(ホストの名前解決)

ログ収集はFluentd、ただし、Fluentd中継サーバーで効率化

  • ・EA-09 AWSのスケーラビリティを最大限に活用したKOSEの店頭支援システム「K-PAD」のご紹介

AWS導入に至った経由(震災の影響)
顧客情報等個人情報を扱うので、セキュリティを最重要視

店舗、オンプレ、AWSはDirectConnect及びキャリアIP-VPNでセキュア接続な環境を確保。

IMAG0160

店舗端末(iPad)にはデータレス、Radis/個体認証を組み合わせている
随時店舗への導入が随時のため、サーバーサイジング
インスタンスタイプの随時変更

IMAG0161

  • EA-10 クラウドで実現する次世代マーケティングとは?

すかいらーく、無印食品、あきんどスシローのクラウドを使用した利用、効果
社内をどう納得させたか

 展示ブースにてほぼブースを回りましたが、以前のプレスリリース等から説明員から説明を頂きました。

  • VPC専用SIMによる閉域モバイル接続
    • SIMを使ったAWSへのセキュア接続サービス。主に営業向けサービス。タブレットでVPC専用SIMを使ってDaaSのデモをして頂きましたが、実用に耐えるレベルの体感でした。Office文書の変更も可能。タブレットサイドにはデータを残さないので、端末紛失時の対策もOK
  • 運用自動化ソフトウェア Hinemos
    • 9月ごろにAWS上のHinemos パッケージ Hinemos HA on AWSがリリース予定。※料金形態は現在検討中とのこと
  • Cloud Automator
    • EC2起動等の処理の自動化。定期的に起動させてジョブを実行するバッチに適しているのではないか。ジョブ実行後はインスタンスは捨ててしまうことで、トータルコストの低減が図られる。
  • ジョブ管理ソフトウェア WebSAM JobCenter ※参考出展
    • ブラウザ上でジョブフローを構築できる。JP1に近い印象を受けました。
  • クラウドファイルサーバスターターパック 大容量NAS Suite

Montion Board、Tableauなどビックデータ関連の展示も多く見られた。