lacolaco

唐揚げとアニメとプログラミングが大好きです

ng-sake #13 忘年会を開催しました!

こんにちは、lacoです。

12/13にng-sake #13 を開催しました。参加いただいたみなさんありがとうございました! 会場貸してしてくれてる株式会社トレタさんにもいつも感謝です。

ng-sake.connpass.com

f:id:lacolaco:20181214001632p:plain

開催直前のconnpass上の参加者は30人で、たぶん過去最多でした。はりきってお寿司をたくさん注文しました。喜んでもらえたみたいでよかったです。

f:id:lacolaco:20181214001657p:plain

今回もいつもと同じように、乾杯 => LT => ディスカッションの3本立てで進行しました。 LTをしてくれた Quramyさん、okunokentaroさん、kawakamiさん、kouさん、ありがとうございました!

f:id:lacolaco:20181214003449p:plain

数字

もしかしたら気になる人もいるかもしれないので、ng-sake #13の運営上の数字を公開しておきます。何かしらが誰かしらの参考になると幸いです。

参加者

最終的な参加者は connpass枠23人 + スタッフ(laco + トレタのteyoshさん)の25人でした

お金

集金は、スタッフ含めて一律でひとり2000円ですので、 2000 x 25 = 50000円です。

経費は、フードとお酒ぜんぶ込みで税込み56727円でした。ちょっと赤字ですが、これまでの開催時に微妙に数千円余ることもあったので、まあトントンということで許容範囲の個人負担です。 ギリギリまでconnpassに30人いたんですが直前で25人に減っちゃったのが誤算でした。

ちなみに、25人中Kyashで支払ってくれたのが13人、現金が12人でした。今年に入ってからng-sakeにKyashを導入しましたが、ついに過半数になってきて普及を感じます。 受付オペレーションが楽ですし、イベント後に大量の1000円札を持たなくていいので助かります。ご協力ありがとうございます!来年も引き続きKyash払いサポートしていきます。

まとめ

今回はどういう経路で知ってもらえたのか、ng-sake初参加の方も多く、普段はひとりいると珍しい女性の参加者も数名いらしていて、主催としては非常にうれしい回でした。 今年は3回しか開催できませんでいたが、来年はせめて四半期に一度ずつ、計4回はやりたいですね。 それではまた次回、ng-sakeでお会いしましょう!

日記 20181018

voluntasさんのツイートを見て、自分がここでいう優秀な若者だという自惚れではないんだけど、自分はどういう風に働きたいかなと振り返ったログ

死亡前死因分析 | Basic Werk

法が人を守るんじゃない 人が法を守るんです

秩序が組織を守るんじゃなくて、組織が秩序を守る、そうありたいなと思った20181018。ところで20181018ってなんかキレイだ。

Google Developers Expert (Angular) になりました

f:id:lacolaco:20181004192231p:plain

タイトルのとおり、AngularのGoogle Developers Expertsになりました!

https://developers.google.com/experts/people/suguru-inatomi

Angular GDEは世界では82人目になるようですが、日本では僕が初めてです。やったぜ!

github.com

まだ高専生だったころ、2013年にGDGのGoogle I/O 報告会九州会場に参加して、そこではじめてGDEを知りました。 それからずっとGDEに憧れていたので、5年越しにひとつ夢が叶いました。大好きなAngularでGDEになれて本当に嬉しいです。 プログラムの進行をサポートしてくれたGoogleのえーじさんやたくおさん、面接に協力してくれたGDEのFilipさんとAngular TeamのStephenには大感謝です。

Angular GDEはWeb GDEのグループにも含まれるようなので、Angularに限らずWeb技術のオープンコミュニティへも微力ながら貢献していくつもりです。 GDEになったからといってこれまでの活動が変わることはほとんどないと思いますが、マウンテンビューから遠く離れた日本でAngularのコミュニティを発展させていくための旗印として、この新しい立場を有効活用していく、あるいはコミュニティが僕を利用するとよいと考えています。 そして、自分がそうだったように、僕を含めた日本のGDEというモデルが、学生たちがエキスパートを目指すモチベーションとなれるように頑張ります。

というわけで、ただのAngular好きからGoogle Developer Expertにランクアップしたlacolacoを今後ともよろしくおねがいします。 Angularのエキスパートが必要なときには気軽にお声がけください!

らこらこファンクラブ会員も募集中です!月額$1から支援できます!

www.patreon.com

GCE上に立てたMastodonインスタンスの定期バックアップを構築したメモ

lacolaco.hatenablog.com

この記事を書いてから2週間くらい、Mastodonインスタンスは何の問題もなく動き続けている。 そろそろバックアップを取るようにして、いつ落ちても泣かなくて良いようにしようと思い、GCP上でバックアップフローを構築した。 Docker構成の都合上、GCEのVMインスタンス上にDBも存在しているので、DBのバックアップではなくそれを含むディスクごとスナップショットを取ることにした。

全体像はこんな感じ。枠線で囲った部分が新たに追加したところ。

f:id:lacolaco:20180920224248p:plain

Cloud Schedulerはまだアルファなので詳細は伏せる。ざっくりcron on GCPのようなもの。 週に1回のサイクルでCloud PubSub経由でCloud Functionsを起動し、呼び出される関数でGCEのクライアントライブラリを使ってスナップショットを作成する。 関数はこのような感じ。

// Imports the Google Cloud client library
const Compute = require('@google-cloud/compute');
const format = require('date-fns/format');
 
// Creates a client
const compute = new Compute();
 
const zone = compute.zone('<zone>');
const disk = zone.disk('<disk name>');

function generateSnapshotName(date) {
    return 'snapshot-' + format(date, 'YYYY-MM-DD');
}

/**
 * Triggered from a message on a Cloud Pub/Sub topic.
 *
 * @param {!Object} event Event payload.
 * @param {!Object} context Metadata for the event.
 */
exports.run = async (event, context) => {
  console.log('== begin job');
  const snapshotName = generateSnapshotName(new Date());
  console.log('snapshotName: ', snapshotName);
  const snapshotData = await disk.createSnapshot(snapshotName);
  console.log(snapshotData);
  console.log('== finish job');
};

いまのところうまく動いている。スナップショットが溜まると金を食うけども、そもそもディスクが10GBだししばらくは気にならない金額のはずなので気にしない。

Google Compute Engine上にMastodonインスタンスを立てた記録

表題のとおり、GCE上にMastodonインスタンスを立てたけど、なんだかんだ試行錯誤で4日くらいかかったので自分のために記録を残す。

立てたインスタンスhttps://activitypub.lacolaco.net。ひとり用に作ったので新規ユーザーは作成できない。 アカウントは https://activitypub.lacolaco.net/@lacolaco。mstdn.jpからのお引越し。

参考にしたのは以下のドキュメント。Googleでいろいろ調べると2017年ごろの記事が多く、いまではやらなくていい無駄やいまだとやらないといけない不足があったので苦労した

Mastodonのバージョンは v2.5.0

GCP準備

インスタンス作成

あんまりよく考えずにus-east1-bにg1-small、Ubuntu 16系で立てた。f1-microではセットアップするのにスワップが必要になって面倒なのでRAM 1.7GBは用意した。 スペックを上げろと案内されてるけどg1-small(vCPU x 1、メモリ 1.7 GB)で今の所動いている。 たぶんリモートフォローが増えていくともっと処理能力が必要になりそう。

ファイアウォール

HTTPとHTTPSさえ空いていれば特にファイアウォールの設定は必要なかった。 v2.5.0時点だとLOCAL_HTTPSの設定がなくなっているので、3000番ポートで接続確認するステップがない。

DNS設定

GCEインスタンスに固定の外部IPを割り当てた後、好きなDNSで好きなドメインにAレコードを設定する。 今回は activitypub.lacolaco.net とした。

ストレージ

GCSに適当なBucketを作る。Regionalにしておく。

設定で相互運用性の設定をして、APIキーと秘密鍵を生成する。これでS3の代わりにGCSが使える。

f:id:lacolaco:20180908234014p:plain

Mailgun準備

おひとり用だとどういうプランでも普通に無料枠なので、適当に登録する。 カスタムドメインも設定して、次の状態にした。

f:id:lacolaco:20180908233149p:plain

あとでここの情報を使う。

VM内作業

インスタンスが出来上がったら、SSHでログインして作業を始める。

Docker準備

UbuntuにDockerとDocker Composeをインストールする。変に日本語記事を当てにせず、普通に公式ドキュメントを読んだほうがよかった。

Get Docker CE for Ubuntu | Docker Documentation

Docker CEをインストールしたあと、dockerコマンドをsudo以外で呼び出せるようにする。

Post-installation steps for Linux | Docker Documentation

$ docker run hello-world が実行できればゴール

次にDocker Composeも公式ドキュメントのとおりでよい。

Install Docker Compose | Docker Documentation

nginx準備

Ubuntuにnginxをインストールする。apt-getで適当に入れる。

$ apt-get update
$ apt-get upgrade
$ sudo apt-get install nginx
// 一旦止める
$ sudo nginx -s stop
// 再開
$ sudo nginx

この時点で、http://activitypub.lacolaco.net にアクセスすればnginxのデフォルト画面に到達できるはず。

証明書準備

あらかじめnginxを停止して、80番ポートを開放する。sudo lsof -i:80 でnginxが出ないことを確認する。

$ sudo apt install letsencrypt
$ sudo letsencrypt certonly

メールアドレスと activitypub.lacolaco.net を入力してうまくいくはず。

続いて、継続的に証明書を更新するためのcron設定をする。

# これが通るかどうかをまずチェックする
$ sudo letsencrypt renew --force-renewal

$ sudo crontab -e

次の1行を追加する

# 毎月1日の朝5時にSSL証明書を自動更新する

00 05 01 * * sudo nginx -s stop; sudo letsencrypt renew --force-renewal; sudo nginx

これで証明書が毎月更新されるようになる

Mastodon準備

いよいよMastodonの準備。基本的に公式ガイドどおりにやるだけ。

Gitのクローン。 liveである意味は特にないんだけど、後続のいろんな設定ファイルが ~/live 前提なのでいじらなくていいようにそのままにする。

# Clone mastodon to ~/live directory
git clone https://github.com/tootsuite/mastodon.git live
# Change directory to ~/live
cd ~/live

docker-compose.ymlの修正

まずデータの永続化を有効化する。 volumesプロパティがコメントアウトされているのをアンコメントする。

### Uncomment to enable DB persistance
    volumes:
      - ./postgres:/var/lib/postgresql/data

  redis:
    restart: always
    image: redis:alpine
### Uncomment to enable REDIS persistance
    volumes:
      - ./redis:/data

Dockerイメージの準備

今回は特にMastodonをカスタマイズしたい気持ちはないのでprebuiltイメージを使った。完全に公式ガイドのとおり。 バージョンは image: tootsuite/mastodon:v2.5.0とした。

f:id:lacolaco:20180908233348p:plain

Mastodonセットアップ

次のコマンドを実行する。

docker-compose run --rm web bundle exec rake mastodon:setup

いろいろ聞かれる。聞かれるままにそのまま進めていけば、あとで .env.production にペーストする用の設定が出力される。 注意が必要なのは、メール送信のポート番号は587だとGCPにブロックされるので2525を使うこと。

最終的に、 .env.production は次のようになった。redisとかパスワードかけてなくて危ない気もするけど、そもそもGCEのファイアウォールで外から見えないので今回は無視している。 GCSを使うために手で編集する必要がある部分は2017年ごろの記事には書かれていないことが多い。

# Generated with mastodon:setup on 2018-09-07 00:46:28 UTC

LOCAL_DOMAIN=activitypub.lacolaco.net
SINGLE_USER_MODE=true
SECRET_KEY_BASE=(mastodon:setupで生成される)
OTP_SECRET=(mastodon:setupで生成される)
VAPID_PRIVATE_KEY=(mastodon:setupで生成される)
VAPID_PUBLIC_KEY=(mastodon:setupで生成される)
DB_HOST=db
DB_PORT=5432
DB_NAME=postgres
DB_USER=postgres
DB_PASS=
REDIS_HOST=redis
REDIS_PORT=6379
REDIS_PASSWORD=
S3_ENABLED=true
S3_PROTOCOL=https
S3_BUCKET=(自分で作ったGCSのBucket)
S3_REGION=(自分で作ったGCSのBucketのリージョン)
S3_HOSTNAME=storage.googleapis.com
AWS_ACCESS_KEY_ID=(自分で作ったGCSの相互運用性APIキー)
AWS_SECRET_ACCESS_KEY=(自分で作ったGCSの相互運用性秘密鍵)
SMTP_SERVER=smtp.mailgun.org
SMTP_PORT=2525
SMTP_LOGIN=(MailgunのDefault SMTP Login)
SMTP_PASSWORD=(MailgunのDefault Password)
SMTP_AUTH_METHOD=plain
SMTP_OPENSSL_VERIFY_MODE=none
SMTP_FROM_ADDRESS=Mastodon <notifications@activitypub.lacolaco.net>

# 自動セットアップ後に手で追加する
S3_ENDPOINT=https://storage.googleapis.com/
S3_SIGNATURE_VERSION=s3

ここまでできたら一旦立ち上げる。

$ docker-compose up

エラーにならなければOK。Ctrl+cで一旦終了し、改めて $ docker-compose up -dでデーモン実行する。

nginx設定の追加

Mastodonの公式設定にしたがってnginxの設定をおこない、3000番ポートでホストされているMastodonを外部からアクセス可能にする。

documentation/Production-guide.md at master · tootsuite/documentation · GitHub

以上で https://activitypub.lacolaco.netdocker-compose up -dで動くMastodonに接続された。

ざっくりと構成図はこういう感じだと思う

f:id:lacolaco:20180909001617p:plain

苦しんだところ

  • 外部IPがエフェメラルになっていることに気づくのに時間がかかって、全然nginxが確認できなくてつらかった
  • 上記理由でLet's Encrypt失敗しまくるとレートリミットに引っかかった。最初は--stagingオプションをつけるとレートリミットがゆるくなるので実験しやすい
  • S3_ENDPOINTS3_SIGNATURE_VERSION に気づくのに時間がかかった。Mastodon自体は立ち上がるけどアイコン画像アップロードしようとしたら死ぬので気づくのが遅れた
  • アセットのプリコンパイルは長い

改善できそうなところ

  • StackDriverと繋いでみたのでモニタリングとアラートとかやってみたい
  • 1ヶ月どれくらいのコストになるかわかったらまたいろいろ調整したい
  • Mastodonのアップロードにもできるだけ追従していきたいので必要になったら手順を追う