GCPに標準で用意されているロギング機能としてStackdriverがあります.
AWSでいうところのCloudWatchのようなもので,ロードバランサーのアクセスログやAPI呼び出しにともなうAuditログなんかは自動でここにログが吐かれます.
ラベル付けなどがされていて構造化されているログなのでWebのコンソールから簡単にフィルタリング表示できたりして便利なのですが,ちょっと手の混んだ集計をしてみたいとなったときはBigQueryにログを流し込んだりしなければならないようです.
そういった用途でのBQやGCSとの連携の話はドキュメントに方法が記載されているのですが,「昨日のアクセスログをちょっと集計してみたい」みたいな目的のときにはかなり大げさです.

もうちょっと気軽に手元に持ってきてシェル芸とか自前スクリプトで集計できないかなと思って調べたところgcloudを使ってコマンドラインだけでうまいことできるようだったのでこちらで紹介します.

さっくり結論だけいってしまうとこちらのコマンドを利用することで任意のログのダウンロードができちゃうみたいです.
使い方は上記のリンク見ればわかってしまうとは思いますが一応自分がのちのちコピペして使う用程度の気持ちで残しておきます.

1. 基本コマンド

最も基本的な使い方は以下です.こちらを実行するとログのフィルタリング結果が標準出力に吐かれます.
フィルターの書き方はWebコンソール上で高度なフィルタとして入力できる記法と同じもののようなので,まずは入力補助もあるWeb画面で何度か試してフィルタを調整してみると良いでしょう.

$ gcloud beta logging read "[Filter条件]"

また,便利な機能として以下のようにformatオプションを指定してやることでログをjsonで構造された配列としてダウンロードすることが可能です.
デフォルトのフォーマットでも集計に支障出るようなへんてこフォーマットではないとは思いますが,jsonで出力しておけばjqコマンドと組み合わせてより柔軟にログを操作できるので指定しておいたほうが便利な気がします.

$ gcloud beta logging read --format json "[Filter条件]"

2. 実行サンプル

例えばロードバランサのログから特定のエンドポイント https://hogehoge.com/aaa が2017/10/10のどの時間帯に多く呼ばれているのか知りたいときはこんな感じでシェルのワンライナーでかけてしまいます.

$ gcloud beta logging read --format json '
resource.type="http_load_balancer"
httpRequest.requestUrl="https://hogehoge.com/aaa"
receiveTimestamp>="2017-10-10T00:00:00"
receiveTimestamp<="2017-10-10T23:59:59"
' | jq -r '.[] | .receiveTimestamp' | awk -F ':' '{print $1}' | sort | uniq -n | sort -n

便利.