パフォーマンスの最適化

問題を報告 ソースを表示 Nightly · 7.4 . 7.3 · 7.2 · 7.1 · 7.0 · 6.5

ルールを記述する際、パフォーマンスに関する最も一般的な落とし穴は、依存関係から蓄積されたデータを走査またはコピーすることです。ビルド全体で集計すると、これらのオペレーションは簡単に O(N^2) の時間またはスペースを消費する可能性があります。これを回避するには、depset を効果的に使用する方法を理解することが重要です。

これを正しく行うことは難しいため、Bazel には、間違いが発生した可能性のある場所を見つけるのに役立つメモリ プロファイラも用意されています。注意: 非効率的なルールを記述した場合のコストは、広範囲に使用されるまで明らかにならない場合があります。

depset を使用する

ルールの依存関係から情報をロールアップするときは、depsets を使用する必要があります。現在のルールにローカルな情報を公開する場合は、単純なリストまたは辞書のみを使用します。

depset は、共有を可能にするネストされたグラフとして情報を表します。

次のグラフについて考えてみましょう。

C -> B -> A
D ---^

各ノードは 1 つの文字列を公開します。depset を使用すると、データは次のようになります。

a = depset(direct=['a'])
b = depset(direct=['b'], transitive=[a])
c = depset(direct=['c'], transitive=[b])
d = depset(direct=['d'], transitive=[b])

各項目は 1 回のみ言及されます。リストを使用すると、次のように表示されます。

a = ['a']
b = ['b', 'a']
c = ['c', 'b', 'a']
d = ['d', 'b', 'a']

この場合、'a' は 4 回参照されています。グラフが大きいほど、この問題は悪化する一方です。

以下に、依存関係を正しく使用して推移的情報をパブリッシュするルールの実装例を示します。リストを使用してルールローカル情報を公開しても問題ありません。これは O(N^2) ではないためです。

MyProvider = provider()

def _impl(ctx):
  my_things = ctx.attr.things
  all_things = depset(
      direct=my_things,
      transitive=[dep[MyProvider].all_things for dep in ctx.attr.deps]
  )
  ...
  return [MyProvider(
    my_things=my_things,  # OK, a flat list of rule-local things only
    all_things=all_things,  # OK, a depset containing dependencies
  )]

詳細については、depset の概要のページをご覧ください。

depset.to_list() を呼び出さない

to_list() を使用してデプセットをフラットリストに強制変換できますが、その場合、通常は O(N^2) コストが発生します。可能であれば、デバッグ目的以外で depset をフラット化しない。

よくある誤解として、<xx>_binary ルールなどのトップレベル ターゲットでのみ Depset をフラット化すれば、ビルドグラフの各レベルで費用が累積されないため、Depset を自由にフラット化できるというものがあります。ただし、依存関係が重複する一連のターゲットをビルドする場合、これは O(N^2) です。引き続きこれは、テスト //foo/tests/... のビルド時や IDE プロジェクトのインポート時に発生します。

depset の呼び出し回数を減らす

ループ内で depset を呼び出すのは誤りがよくあります。これにより、ネストの深い depset が作成され、パフォーマンスが低下する可能性があります。例:

x = depset()
for i in inputs:
    # Do not do that.
    x = depset(transitive = [x, i.deps])

このコードは簡単に置き換えることができます。まず、推移的依存関係を収集し、一度にすべてマージします。

transitive = []

for i in inputs:
    transitive.append(i.deps)

x = depset(transitive = transitive)

リスト内包を使用すると、この処理を短縮できる場合があります。

x = depset(transitive = [i.deps for i in inputs])

コマンドラインで ctx.actions.args() を使用する

コマンドラインをビルドする場合は、ctx.actions.args() を使用する必要があります。これにより、depset の展開が実行フェーズに延期されます。

これにより、速度が大幅に向上するだけでなく、ルールのメモリ消費量が削減されます(90% 以上削減されることもあります)。

以下にいくつかのヒントをご紹介します。

  • 依存関係とリストを自分でフラット化するのではなく、引数として直接渡します。ctx.actions.args() 展開されます。 depset の内容を変換する必要がある場合は、ctx.actions.args#add で、適切なものがないか確認します。

  • File#path を引数として渡していますか?必要ありません。すべてのファイルは自動的にパスに変換され、展開時間に遅れます。

  • 文字列を連結して作成しないでください。文字列引数には定数を使用することをおすすめします。これは、ルールのすべてのインスタンス間でメモリが共有されるためです。

  • 引数がコマンドラインに対して長すぎる場合は、ctx.actions.args#use_param_file を使用して、ctx.actions.args() オブジェクトを条件付きまたは無条件でパラメータ ファイルに書き込むことができます。これは、アクションの実行時にバックグラウンドで実行されます。params ファイルを明示的に制御する必要がある場合は、ctx.actions.write を使用して手動で記述できます。

例:

def _impl(ctx):
  ...
  args = ctx.actions.args()
  file = ctx.declare_file(...)
  files = depset(...)

  # Bad, constructs a full string "--foo=<file path>" for each rule instance
  args.add("--foo=" + file.path)

  # Good, shares "--foo" among all rule instances, and defers file.path to later
  # It will however pass ["--foo", <file path>] to the action command line,
  # instead of ["--foo=<file_path>"]
  args.add("--foo", file)

  # Use format if you prefer ["--foo=<file path>"] to ["--foo", <file path>]
  args.add(format="--foo=%s", value=file)

  # Bad, makes a giant string of a whole depset
  args.add(" ".join(["-I%s" % file.short_path for file in files])

  # Good, only stores a reference to the depset
  args.add_all(files, format_each="-I%s", map_each=_to_short_path)

# Function passed to map_each above
def _to_short_path(f):
  return f.short_path

伝播アクションの入力は depset である必要があります

ctx.actions.run を使用してアクションを作成する場合、inputs フィールドが depset を受け入れることを忘れないでください。入力が依存関係から伝播的に収集される場合は常に使用します。

inputs = depset(...)
ctx.actions.run(
  inputs = inputs,  # Do *not* turn inputs into a list
  ...
)

吊り下げ

Bazel がハングしていると思われる場合は、Ctrl-\ キーを押すか、Bazel に SIGQUIT シグナル(kill -3 $(bazel info server_pid))を送信して、ファイル $(bazel info output_base)/server/jvm.out にスレッドダンプを取得します。

bazel がハングしている場合、bazel info を実行できない可能性があるため、通常、output_base ディレクトリはワークスペース ディレクトリ内の bazel-<workspace> シンボリック リンクの親になります。

パフォーマンス プロファイリング

Bazel は、デフォルトでは JSON プロファイルを出力ベースの command.profile.gz に書き込みます。ロケーションは --profile フラグで構成できます(例: --profile=/tmp/profile.gz)。.gz で終わるロケーションは GZIP で圧縮されます。

結果を表示するには、Chrome ブラウザのタブで chrome://tracing を開き、[読み込み] をクリックして、(圧縮されている可能性のある)プロファイル ファイルを選択します。より詳細な結果を確認するには、左下にあるボックスをクリックします。

次のキーボード操作を使用して移動できます。

  • 1 キーを押して「選択」モードにします。このモードでは、特定のボックスを選択してイベントの詳細を調べることができます(左下を参照)。複数のイベントを選択すると、概要と集計された統計情報が表示されます。
  • 2 を押して「パン」モードにします。次に、マウスをドラッグしてビューを移動します。a / d を使用して左右に移動することもできます。
  • 3 を押して「ズーム」モードにします。マウスをドラッグしてズームします。w/s を使用してズームイン/ズームアウトすることもできます。
  • 4 を押して「タイミング」モードでは、2 つのイベント間の距離を測定できます。
  • すべてのコントロールについて詳しくは、? を押してください。

プロフィール情報

プロファイルの例:

プロファイルの例

図 1. プロファイルの例。

特別な行がいくつかあります。

  • action counters: 処理中の同時アクションの数を表示します。クリックすると、実際の値が表示されます。クリーンビルドでは --jobs の値まで増やす必要があります。
  • cpu counters: ビルドの 1 秒ごとに、Bazel によって使用される CPU の量を表示します(値 1 は、1 つのコアが 100% ビジー状態であることを意味します)。
  • Critical Path: クリティカル パス上のアクションごとに 1 つのブロックを表示します。
  • grpc-command-1: Bazel のメインスレッド。「Launch Bazel」、「Launch TargetPatterns」、「runAnalyevaluateSteps」など、Bazel が行っている処理を大まかに把握するのに役立ちます。
  • Service Thread: マイナー ガベージ コレクション(GC)とメジャー GC の停止を表示します。

その他の行は Bazel スレッドを表し、そのスレッドのすべてのイベントが表示されます。

一般的なパフォーマンスの問題

パフォーマンス プロファイルを分析する際には、以下のことに注目します。

  • 分析フェーズ(runAnalysisPhase)が想定よりも遅い(特に増分ビルドの場合)。これは、depset をフラット化するなど、ルールの実装が適切でないことを示す可能性があります。ターゲット、複雑なマクロ、再帰 glob により、パッケージの読み込みが遅くなる場合があります。
  • 個々の遅いアクション(特にクリティカル パス上のもの)。大規模なアクションを複数の小さなアクションに分割したり、(推移的な)依存関係のセットを減らして高速化できる場合があります。また、PROCESS_TIME 以外の異常に高い値(REMOTE_SETUPFETCH など)がないか確認します。
  • ボトルネック。つまり、少数のスレッドがビジー状態になり、他のすべてのスレッドがアイドル状態になるか結果を待機している(上記のスクリーンショットの 15~30 秒付近を参照)。これを最適化するには、ルールの実装または Bazel 自体に変更を加えて、より多くの並列処理を導入する必要があります。これは、GC の量が異常に多い場合にも発生することがあります。

プロファイルのファイル形式

最上位オブジェクトには、メタデータ(otherData)と実際のトレースデータ(traceEvents)が含まれます。メタデータには、呼び出し ID や Bazel 呼び出しの日付などの追加情報が含まれます。

例:

{
  "otherData": {
    "build_id": "101bff9a-7243-4c1a-8503-9dc6ae4c3b05",
    "date": "Tue Jun 16 08:30:21 CEST 2020",
    "profile_finish_ts": "1677666095162000",
    "output_base": "/usr/local/google/_bazel_johndoe/573d4be77eaa72b91a3dfaa497bf8cd0"
  },
  "traceEvents": [
    {"name":"thread_name","ph":"M","pid":1,"tid":0,"args":{"name":"Critical Path"}},
    {"cat":"build phase marker","name":"Launch Bazel","ph":"X","ts":-1824000,"dur":1824000,"pid":1,"tid":60},
    ...
    {"cat":"general information","name":"NoSpawnCacheModule.beforeCommand","ph":"X","ts":116461,"dur":419,"pid":1,"tid":60},
    ...
    {"cat":"package creation","name":"src","ph":"X","ts":279844,"dur":15479,"pid":1,"tid":838},
    ...
    {"name":"thread_name","ph":"M","pid":1,"tid":11,"args":{"name":"Service Thread"}},
    {"cat":"gc notification","name":"minor GC","ph":"X","ts":334626,"dur":13000,"pid":1,"tid":11},

    ...
    {"cat":"action processing","name":"Compiling third_party/grpc/src/core/lib/transport/status_conversion.cc","ph":"X","ts":12630845,"dur":136644,"pid":1,"tid":1546}
 ]
}

トレース イベントのタイムスタンプ(ts)と期間(dur)はマイクロ秒単位で指定します。カテゴリ(cat)は、ProfilerTask の列挙値の 1 つです。イベントが非常に短く、互いに近接している場合、イベントが統合されることがあります。イベントの統合を防ぐには、--noslim_json_profile を渡します。

Chrome トレース イベント形式の仕様もご覧ください。

analyze-profile

このプロファイリング方法は 2 つのステップで構成されています。まず、--profile フラグを使用してビルドまたはテストを実行する必要があります。次に例を示します。

$ bazel build --profile=/tmp/prof //path/to:target

生成されたファイル(この場合は /tmp/prof)はバイナリ ファイルであり、analyze-profile コマンドによってポスト処理と分析を行うことができます。

$ bazel analyze-profile /tmp/prof

デフォルトでは、指定したプロファイル データファイルのサマリー分析情報が出力されます。これには、各ビルドフェーズにおけるさまざまなタスクタイプの累積統計情報と、クリティカル パスの分析が含まれます。

デフォルトの出力の最初のセクションは、さまざまなビルドフェーズにかかった時間の概要です。

INFO: Profile created on Tue Jun 16 08:59:40 CEST 2020, build ID: 0589419c-738b-4676-a374-18f7bbc7ac23, output base: /home/johndoe/.cache/bazel/_bazel_johndoe/d8eb7a85967b22409442664d380222c0

=== PHASE SUMMARY INFORMATION ===

Total launch phase time         1.070 s   12.95%
Total init phase time           0.299 s    3.62%
Total loading phase time        0.878 s   10.64%
Total analysis phase time       1.319 s   15.98%
Total preparation phase time    0.047 s    0.57%
Total execution phase time      4.629 s   56.05%
Total finish phase time         0.014 s    0.18%
------------------------------------------------
Total run time                  8.260 s  100.00%

Critical path (4.245 s):
       Time Percentage   Description
    8.85 ms    0.21%   _Ccompiler_Udeps for @local_config_cc// compiler_deps
    3.839 s   90.44%   action 'Compiling external/com_google_protobuf/src/google/protobuf/compiler/php/php_generator.cc [for host]'
     270 ms    6.36%   action 'Linking external/com_google_protobuf/protoc [for host]'
    0.25 ms    0.01%   runfiles for @com_google_protobuf// protoc
     126 ms    2.97%   action 'ProtoCompile external/com_google_protobuf/python/google/protobuf/compiler/plugin_pb2.py'
    0.96 ms    0.02%   runfiles for //tools/aquery_differ aquery_differ

メモリのプロファイリング

Bazel には、ルールのメモリ使用量を確認できるメモリ プロファイラが組み込まれています。問題がある場合は、ヒープダンプを実行して、問題の原因となっているコード行を特定できます。

メモリ トラッキングの有効化

次の 2 つの起動フラグを Bazel の呼び出しごとに渡す必要があります。

  STARTUP_FLAGS=\
  --host_jvm_args=-javaagent:$(BAZEL)/third_party/allocation_instrumenter/java-allocation-instrumenter-3.3.0.jar \
  --host_jvm_args=-DRULE_MEMORY_TRACKER=1

これらは、メモリ トラッキング モードでサーバーを起動します。1 回の Bazel 呼び出しでこれらのオプションを忘れると、サーバーが再起動され、最初からやり直す必要があります。

メモリ トラッカーの使用

たとえば、ターゲット foo を見て、その動作を確認します。分析のみを実行し、ビルド実行フェーズを実行しないようにするには、--nobuild フラグを追加します。

$ bazel $(STARTUP_FLAGS) build --nobuild //foo:foo

次に、Bazel インスタンス全体で消費されるメモリ量を確認します。

$ bazel $(STARTUP_FLAGS) info used-heap-size-after-gc
> 2594MB

bazel dump --rules を使用してルールクラスごとに分類します。

$ bazel $(STARTUP_FLAGS) dump --rules
>

RULE                                 COUNT     ACTIONS          BYTES         EACH
genrule                             33,762      33,801    291,538,824        8,635
config_setting                      25,374           0     24,897,336          981
filegroup                           25,369      25,369     97,496,272        3,843
cc_library                           5,372      73,235    182,214,456       33,919
proto_library                        4,140     110,409    186,776,864       45,115
android_library                      2,621      36,921    218,504,848       83,366
java_library                         2,371      12,459     38,841,000       16,381
_gen_source                            719       2,157      9,195,312       12,789
_check_proto_library_deps              719         668      1,835,288        2,552
... (more output)

bazel dump --skylark_memory を使用して pprof ファイルを生成して、メモリがどこに移動しているかを確認します。

$ bazel $(STARTUP_FLAGS) dump --skylark_memory=$HOME/prof.gz
> Dumping Starlark heap to: /usr/local/google/home/$USER/prof.gz

pprof ツールを使用してヒープを確認します。pprof -flame $HOME/prof.gz を使用してフレームグラフを作成することをおすすめします。

https://github.com/google/pprof から pprof を取得します。

呼び出しサイトのテキスト ダンプを取得し、行にアノテーションを付けます。

$ pprof -text -lines $HOME/prof.gz
>
      flat  flat%   sum%        cum   cum%
  146.11MB 19.64% 19.64%   146.11MB 19.64%  android_library <native>:-1
  113.02MB 15.19% 34.83%   113.02MB 15.19%  genrule <native>:-1
   74.11MB  9.96% 44.80%    74.11MB  9.96%  glob <native>:-1
   55.98MB  7.53% 52.32%    55.98MB  7.53%  filegroup <native>:-1
   53.44MB  7.18% 59.51%    53.44MB  7.18%  sh_test <native>:-1
   26.55MB  3.57% 63.07%    26.55MB  3.57%  _generate_foo_files /foo/tc/tc.bzl:491
   26.01MB  3.50% 66.57%    26.01MB  3.50%  _build_foo_impl /foo/build_test.bzl:78
   22.01MB  2.96% 69.53%    22.01MB  2.96%  _build_foo_impl /foo/build_test.bzl:73
   ... (more output)