limitusus’s diary

主に技術のことを書きます

AWSのコストを取得するgemを調べた

AWSは料金表を提供していますが、JSONを取得してごにょごにょ…と自分でやるのは何か違う気がします。どうせgemくらい誰か作ってるだろう、ということで少し調べてみました。

tl;dr

今のところamazon-pricingを使うか、やっぱり自前で書くのがいいのではないか。

調べたもの

(amazon|aws).*(pric|cost)

みたいなものを探すと見付かったのは以下の4つ

aws-pricing

EC2、RDS、ElastiCache、CloudFront、EMRに対応している。最終更新が2012年でメンテされている様子がない。

awsprice

EC2しかなさそう。Homepageに設定されているのがGithubでなく、飛んでもDNSが引けなくて何も情報がない。

amazon-pricing

EC2、RDS、ElastiCacheあたりのデータが取れる。メモリの情報などもついでに取れるようにベタ書きしてあるが、ElastiCacheのm4など、更新が追い付かず抜けているものがある(PR済み)。メモリが1GBを切っていると0GBになってしまう(PR済み)。

awscosts

RDSがない。S3、EMRがある。東京リージョンのデータが取れるかどうかテストされておらず、EBSのデータが取れない(PR済み)

RDS logをRubyでダウンロード

AuroraのAudit log検証をしていて、「これ定期的にS3にアップロードしないと消えるよね?」って話になったので、まずはRDSから取ってくるとこからだね…ってことでやってみることにしました。

候補手段

 方法はいくつかあるんですが、

1. rds-cliを使う

もうdeprecatedだそうで、今後メンテされないものを今から使い始めるというのはいかにもセンスがないので却下。

docs.aws.amazon.com

The Amazon RDS Command Line Interface (RDS CLI) has been deprecated. Instead, use the AWS CLI for RDS.

 

2. aws-cliを使う

アリなんですが、aws-cliだとrds download-db-log-file-portionというコマンドになり、最大1MB単位でしかダウンロードできず、何度も呼び出して連結して…という処理を書くのがめんどくさいので避けたいところです。

download-db-log-file-portion — AWS CLI 1.11.118 Command Reference

3. SDKを使う

2の方法だとshell scriptで繰り返し処理を書くのがめんどくさいということで、RubyなりPythonなりで書くのが現実的でしょう。SDKでダウンロードするAPIもあります。

Rubyだと Aws::RDS::Client#download_db_log_file_portion が用意されています。ただ、2とほぼ同様にmarkerをリクエストに入れて何度も呼び出す仕組みであり、めんどくさい…

4. DownloadCompleteDBLogFileを使う

[Tips] Amazon RDSのログファイルから全てのメッセージを取得する方法 | Developers.IO でも紹介されている方法です。ここではPythonでやっていますが、今回Rubyで書きたいなと思ったのでRubyでやってみました。

docs.aws.amazon.com

ということで以下は実装

続きを読む

terraformのprovider aliasを使うときのtips

最近よくterraformで構成管理とか構築をやってて、ハマったのでメモ。

やろうとしたこと

AWS ap-northeast-1で主な構成を組んでいて、CloudFrontでの静的コンテンツ配信をhttpsで行いたい。このときACMを利用するが、証明書はus-east-1に配置する必要がある。

証明書の発行はWeb画面でやったので、terraformにはdata aws_acm_certificateとして利用することにした。

このときリソースの場所は普段ap-northeast-1のため、明示的にus-east-1を指定してやらないと意図した証明書が得られない(あたりまえ)。

このためには以下のサイトのように、provider aliasを使ってregionを指定し、data resourceでproviderを指定する。

coderwall.com

これで全てはうまくいく、はずだった。

続きを読む

はてなブログに移行しました

ふと思い立ったのではてなダイアリーからはてなブログへと移行を行いました。

既存記事は移行ツールにより全てリダイレクトされているはず…

一番人気の Server::Starterに対応するとはどういうことか - limitusus’s diary も正常に移行されています。

El CapitanでUSB-Serialを使う

その手の人には常識かもしれないんですが、OS X 10.10あたりからドライバ署名されていないもののインストールができなくなってますね
手元にあるUSB-CVRS9はLinuxで問題なく動いていたので気付くのが遅れてしまいました。

さて、これを使おうとサンワサプライのサイトを見てもOS X用のドライバは落ちていません。
調べてみるとこのUSB-CVRS9、実はOEM品でした。

USB-CVRS9 は ATEN UC-232A の OEM です
MacBook で USB <-> シリアルポート変換ケーブルを使う

なるほど、ということで実際にATEN Japanのサイトからドライバを探してみるも、10.9用までしかなく、無理矢理入れようとしてもインストールには失敗してしまいました。

まさかOS X用にUSB-Serialだけ対応機種を別購入か…

困っていたところでInstalling Aten Serial-to-USB on OS X El Capitanというタイトルそのままな記事を発見。
確認してみたところATEN JapanではなくATEN本体のサイトからドライバを探すと(Support→Software & Driver)無事に10.10対応のドライバ(署名済み)が入手できました。

あとは通常通りcuなりscreenなりで接続すればOKです。
これでOS Xでもルータをいじれますね。

EBSがattachされたらSlackに通知する仕組みを作った

AWS Lambdaを以前から使ってみたいなあと思っていたのですが、「何かの操作にhookする」というので試してみました。

今回は「任意のEBS VolumeがEC2 instanceにattachされたら(AttachVolume)Slackのwebhookを叩いて通知する」というのをやってみました。

Pythonを利用しています
https://gist.github.com/limitusus/59640fc2a9b2bbaf6941

だいたいよく利用されそうな情報は変数に放り込んだので、ちょっとコードをいじれば「特定のVolumeだけ」とか「特定のinstanceだけ」とかも簡単に実現できます。

仕組み

  • CloudTrailを有効にし、SNS通知を有効にする
  • SNS topicにはLambdaを登録しておく
  • Lambda(上URL)ががんばって通知する

気付いたこと

  • Lambdaに最初に渡ってくるイベント通知は小さく、CTのBucketにgzがあるのでそれを取りにいく処理が必要(boto3が使える)
    • Lambdaが実行されるroleにS3アクセスの権限が必要なことに注意
  • gzファイルの展開時もファイルに書き出すような操作はIOErrorとなる。Lambdaの世界ではインメモリで処理する必要がある
  • attachされた時刻が入っているが、UNIXTIMEのミリ秒表記なのでtime.gmtimeに渡すときは1000で割る
  • LambdaのスクリプトはWeb画面でも編集できるがテストしにくいしエディタも慣れたものを使った方がいい
    • ローカルで開発するときは更新をawscliでできるので、以下のようなスクリプトを書いておくと簡単にデプロイできる
#!/bin/sh

zip -r ebsattached.zip ebsattached.py
aws --region us-east-1 lambda update-function-code \
    --function-name "arn:aws:lambda:us-east-1:XXXXXXXXXXXX:function:ebsattached" \
    --zip-file "fileb://ebsattached.zip"
echo "Deployed"

ISUCON5 予選通過してきた

9/26,9/27で開催されたISUCON5の予選に9/27分で参加して通過してきました。

3人チームで出場しましたが、自分の視点での時系列でまとめておこうと思います。
(書いてある内容は自分の作業だけではありません)

概要

spec: n1-highcpu-4 (4vCPU, 3.5GB RAM) 1台

時系列

10:00
  • 競技開始。事前に準備していたレポジトリをcloneしてきてセットアップを開始。
  • 8/26時点でUbuntuと公開されていたことには全く気付かずCentOSを想定しており面喰らう。
  • とりあえず初期ベンチ。220くらい(記録忘れた)
  • インフラ担当として各種パッケージを放り込む。
  • tmux, openrestyはソースからビルド。nginxは結果的に1.6とか入っていたので何も考えずにビルドして問題なかった
  • 練習のときは全く触れなかったsystemdでアプリが起動している
    • 慣れた手順にするためsupervisordをインストー
    • nginx→openrestyについでに切り替え
    • memcachedも立てておく
    • ruby実装をsupervisord経由の起動に切り替え
      • staticなものはさっさとnginxで返す
      • ベンチがContent-Lengthを要求しているがnginxがgzip圧縮していてContent-Lengthがつかない
      • しょうがないのでgzipはoff
  • mysqlがAppArmorでハマる
    • 1時間くらい悩んだ
  • slowlogが全クエリ出るようになった
  • nginxのアクセスログ解析もできるようになった
12:00
  • 少しコードも見始める
  • entries.bodyをsplitして1行目をtitleに使う作りに見覚えを感じる
    • titleカラムを足して切り離す戦略を取り始める
  • 他にもいくつか飛んでいるクエリを見てindexを追加しようと試みる
  • buffer pool sizeが128MBな一方データが2GBほどあることに気付き愕然とする
    • あわててbuffer pool sizeを変えるが反映されずハマる
  • 50万行のentriesテーブルにindexを貼ってカラム追加するのに20分弱かかった
  • この時点で / へのアクセスが遅いことには気付きつつ、中でいろいろやっているのでいったん後回し。
    • 簡単そうなやつから着手している
  • エントリについたコメントの件数をSELECT COUNTしているのが気に入らなかったのでnum_commentsカラムを追加して更新するようにする

このあたりmysqlの設定変更に手間取りなかなかベンチマーク走行ができず焦る

15:00
  • ようやくALTERが実行でき、entries.bodyからtitleを切り離す作業が完了
  • スコアが2500あたりになる
  • footprintsのクエリが激重なので戦略を考え始める
    • 日付ごとに最新の訪問記録しかいらない
    • 最新のだけ持つことでGROUP BYを消去すればいい
  • 裏では「DOM要素 '#friends dd.friend-friend a' に文字列 'タマキ' をもつものは表示されないはずですが、表示されています」というエラーに苦しんでいるようだ
    • 確率的に失敗しているのか、再現条件がよくわからず一旦スルーする
  • それまで0.35secほどかかっていたfootprints系の処理が0.01secにおさまる。
  • やはり / に0.4secかかっておりここに着手
    • 基本的にはキャッシュ戦略に注力することになる
  • たしかこの辺でスコア3000に到達するチームが現れたと思う
16:20
  • mysqlslowdumpでこの辺のクエリに目をつける
Count: 611848  Time=0.00s (32s)  Lock=0.00s (27s)  Rows=1.0 (611848), root[root]@localhost
  SELECT COUNT(N) AS cnt FROM relations WHERE one = 'S' AND another = 'S'

Count: 500  Time=0.03s (16s)  Lock=0.00s (0s)  Rows=1000.0 (500000), root[root]@localhost
  SELECT * FROM entries ORDER BY created_at DESC LIMIT N
  • 1つ目は最新のエントリを表示するためのものなので、entriesとrelationsをjoinしたクエリを投げるようにすることで解消
17:00
  • このあたりで汎用キャッシュ機構が完成し、ベンチマークが再び流せるようになる
  • スコア20746
    • その前のスコアが2000点台だったので一気に順位が2位に上昇
17:10
  • 最新コメント10件のエントリ情報を出す部分を考え始める
    • publicとprivateでそれぞれ10件取得してUNIONしてORDER BY, LIMITすれば同じものが取れる
    • さらにindexを追加
17:30
  • 安全のため再起動試験を行う
    • supervisordが起動するようになってなかった…修正
    • 他は全て問題なし
    • InnoDB data fileをキャッシュに乗せないとキツそう?ということで初期化処理に追加
17:37
  • ひととおりやろうとしていた改善が完了し、スコア22230
  • 何度かベンチを回しつつ、他チームに追い付かれないかヒヤヒヤしながら待つ
    • なお最終スコアでなく最高スコアで順位がつくとみんなで勘違いしてた
18:00
  • 終了し解散。

結果

http://isucon.net/archives/45532743.html

2日目の4位(スコア20162)に入ったということで本戦出場が決定しました。

本戦は猛者だらけなので勝てるか怪しいですが頑張ります。