ルールを記述する際のパフォーマンス上の問題として最も一般的なのは、トラバースまたはコピーです。 依存関係から蓄積したデータ全体として集計する場合 場合、これらのオペレーションには O(N^2) 時間またはスペースが簡単にかかる可能性があります。これを回避するには、 依存関係を効果的に使用する方法を理解するうえで非常に重要です。
これを適切にするのは難しい場合があるため、Bazel ではメモリ プロファイラも用意されています。 は、誤りの可能性がある箇所を見つけるのに役立ちます。注意: 非効率的なルールを作成するコストは、 あります。
依存関係を使用する
ルールの依存関係の情報を統合する場合は、 depsets。プレーンなリストまたは辞書のみを使用して情報をパブリッシュする 適用できます。
depset は、共有を可能にするネストされたグラフとして情報を表します。
次のグラフについて考えてみましょう。
C -> B -> A
D ---^
各ノードは 1 つの文字列をパブリッシュします。depset を使用すると、データは次のようになります。
a = depset(direct=['a'])
b = depset(direct=['b'], transitive=[a])
c = depset(direct=['c'], transitive=[b])
d = depset(direct=['d'], transitive=[b])
各項目は 1 回のみ言及してください。リストの場合は次のようになります。
a = ['a']
b = ['b', 'a']
c = ['c', 'b', 'a']
d = ['d', 'b', 'a']
この場合、'a'
が 4 回言及されていることに注意してください。グラフが大きいほど
問題は悪化する一方です
以下に、依存関係を正しく使用するルールの実装例を示します。 推移情報をパブリッシュしますなお、ルールをローカルで公開しても問題ありません。 これは O(N^2) ではないため、必要に応じてリストを使用します。
MyProvider = provider()
def _impl(ctx):
my_things = ctx.attr.things
all_things = depset(
direct=my_things,
transitive=[dep[MyProvider].all_things for dep in ctx.attr.deps]
)
...
return [MyProvider(
my_things=my_things, # OK, a flat list of rule-local things only
all_things=all_things, # OK, a depset containing dependencies
)]
詳細については、依存関係の概要ページをご覧ください。
depset.to_list()
を呼び出さない
以下のコマンドを使用すると、デプセットをフラットリストに強制変換できます。
to_list()
。ただし、この操作を行うと、通常は O(N^2) になります。
できます。デバッグ時以外は、Depset のフラット化は可能な限り避ける
あります。
よくある誤解は、自分でやるだけで依存関係を自由にフラット化できる、というものです。
<xx>_binary
ルールなどの最上位のターゲットで適用されます。そのため、
ビルドグラフの各レベルで累積されます。ただし、この場合も O(N^2) のまま
重複する依存関係を持つ一連のターゲットをビルドするこれは次の場合に発生します。
テスト //foo/tests/...
をビルドする場合、または IDE プロジェクトをインポートするときに行います。
depset
への通話の数を減らす
ループ内で depset
を呼び出すのは誤りがよくあります。それにより、
非常に深くネストしているため、パフォーマンスが悪くなります。例:
x = depset()
for i in inputs:
# Do not do that.
x = depset(transitive = [x, i.deps])
このコードは簡単に置き換えることができます。まず、推移的 depset を収集し、 一度にすべてを統合します。
transitive = []
for i in inputs:
transitive.append(i.deps)
x = depset(transitive = transitive)
これは、リストの理解を使用することで軽減できる場合があります。
x = depset(transitive = [i.deps for i in inputs])
コマンドラインに gsuite.actions.args() を使用する
コマンドラインを作成するときは、ctx.actions.args() を使用してください。 これにより、依存関係が実行フェーズまで展開されます。
これにより、厳密に高速になるほかに、VM のメモリ消費量が 場合によっては 90% 以上も削減できます。
コツをご紹介します。
依存関係とリストをフラット化するのではなく、引数として直接渡す できます。
ctx.actions.args()
拡張されます。 依存関係のコンテンツに対して変換が必要な場合は、 ctx.actions.args#add を使用して、自分に適したものがあるかどうかを確認します。File#path
を引数として渡していますか?必要ない。制限なし File は自動的に path が、展開時間まで延期される。文字列を連結して構成しないようにします。 メモリはリソース間で共有されるため、最適な文字列引数は定数である 表示されます。
コマンドラインに対して引数が長すぎる場合は、
ctx.actions.args()
オブジェクト パラメータ ファイルには、条件付きまたは無条件に、ctx.actions.args#use_param_file
。これは、 行われます。インフラストラクチャの params ファイルを制御します。ctx.actions.write
。
例:
def _impl(ctx):
...
args = ctx.actions.args()
file = ctx.declare_file(...)
files = depset(...)
# Bad, constructs a full string "--foo=<file path>" for each rule instance
args.add("--foo=" + file.path)
# Good, shares "--foo" among all rule instances, and defers file.path to later
# It will however pass ["--foo", <file path>] to the action command line,
# instead of ["--foo=<file_path>"]
args.add("--foo", file)
# Use format if you prefer ["--foo=<file path>"] to ["--foo", <file path>]
args.add(format="--foo=%s", value=file)
# Bad, makes a giant string of a whole depset
args.add(" ".join(["-I%s" % file.short_path for file in files])
# Good, only stores a reference to the depset
args.add_all(files, format_each="-I%s", map_each=_to_short_path)
# Function passed to map_each above
def _to_short_path(f):
return f.short_path
推移アクション入力は depset にする必要があります
ctx.actions.run を使用してアクションを作成する場合、
inputs
フィールドは depset を受け入れることを忘れないでください。入力が特定のレイヤに
推移的に収集します。
inputs = depset(...)
ctx.actions.run(
inputs = inputs, # Do *not* turn inputs into a list
...
)
吊り下げ
Bazel がハングしていると思われる場合は、Ctrl+\ を押すか、
Bazel でスレッドを取得するための SIGQUIT
シグナル(kill -3 $(bazel info server_pid)
)
$(bazel info output_base)/server/jvm.out
の dump で確認します。
bazel がハングしていると bazel info
を実行できない可能性があるため、
output_base
ディレクトリは通常、bazel-<workspace>
の親です。
シンボリック リンクを作成します。
パフォーマンス プロファイリング
Bazel は、次の方法で JSON プロファイルを出力ベースの command.profile.gz
に書き込みます。
あります。ロケーションは
--profile
フラグ。次に例を示します。
--profile=/tmp/profile.gz
。末尾が .gz
のビジネス情報は、次のファイルで圧縮されます
。
結果を確認するには、Chrome ブラウザのタブで chrome://tracing
を開き、
「読み込んで」圧縮される可能性があるプロファイル ファイルを選択します。詳細については、
左下のボックスをクリックします。
次のキーボード コントロールを使用して移動できます。
- 「選択」するには
1
を押しますモードです。このモードでは イベントの詳細を調べられます(左下を参照)。 複数のイベントを選択すると、概要と集計された統計情報が表示されます。 2
キーを押すと「パン」モードです。次に、マウスをドラッグしてビューを移動します。マイページa
/d
を使用して左右に移動することもできます。3
キーを押すと「ズーム」できますモードです。マウスをドラッグしてズームします。Google Chat では また、w
/s
を使用して拡大、縮小することもできます。- 「タイミング」を表示するには
4
キーを押しますこのモードでは距離を測定できます 学習します。 - すべてのコントロールについて確認するには、
?
キーを押します。
プロフィール情報
プロファイルの例:
図 1. プロファイルの例。
次のような特別な行があります。
action counters
: 処理中の同時アクションの数を表示します。[ 実際の値を確認できます。--jobs
の値まで上がります。 クリーンビルドですcpu counters
: ビルドの 1 秒ごとに CPU の量を表示します。 Bazel で使用されるもの(値 1 は 1 コアが 100% ビジー状態になることを意味します)。Critical Path
: クリティカル パス上のアクションごとに 1 つのブロックを表示します。grpc-command-1
: Bazel のメインスレッド。クラウド リソースの概要を把握するのに役立つ 「Launch Bazel」、「evaluateTargetPatterns」など、Bazel が何を行っているかを示します。 "runAnalysisPhase" を作成します。Service Thread
: マイナーとメジャーのガベージ コレクション(GC)の一時停止を表示します。
その他の行は Bazel スレッドを表し、そのスレッドのすべてのイベントが表示されます。
パフォーマンスに関する一般的な問題
パフォーマンス プロファイルを分析する際は、以下のことに注目してください。
- 特に次の分析フェーズで想定よりも遅い(
runAnalysisPhase
) 使用できます。ルールが不適切な方法で実装されている場合 Depset をフラット化します。パッケージの読み込みは、 過剰な数のターゲット、複雑なマクロ、または再帰的 glob の使用は避けます。 - 個々のスロー・アクション、特にクリティカル・パス上のアクション。たぶん
大きなアクションを複数の小さなアクションに分割したり、
(一時的な)依存関係のセットを使用して、それらの依存関係を高速化します。また、
PROCESS_TIME
以外の値の上限(REMOTE_SETUP
、FETCH
など)。 - ボトルネック。これは、少数のスレッドがビジー状態であり、他のスレッドが アイドル状態 / 結果を待機しています(上のスクリーンショットの 15 秒~ 30 秒程度を参照)。 これを最適化するには、多くの場合、ルールの実装に少し手を加える必要がある または Bazel 自体を使用することで、並列処理を増やすことができます。これは次の場合にも発生する可能性があります。 異常量の GC があります。
プロファイルのファイル形式
最上位オブジェクトには、メタデータ(otherData
)と実際のトレースデータが含まれます。
(traceEvents
)。メタデータには、呼び出し ID などの追加情報が含まれる
Bazel の呼び出し日が含まれます
例:
{
"otherData": {
"build_id": "101bff9a-7243-4c1a-8503-9dc6ae4c3b05",
"date": "Tue Jun 16 08:30:21 CEST 2020",
"profile_finish_ts": "1677666095162000",
"output_base": "/usr/local/google/_bazel_johndoe/573d4be77eaa72b91a3dfaa497bf8cd0"
},
"traceEvents": [
{"name":"thread_name","ph":"M","pid":1,"tid":0,"args":{"name":"Critical Path"}},
{"cat":"build phase marker","name":"Launch Bazel","ph":"X","ts":-1824000,"dur":1824000,"pid":1,"tid":60},
...
{"cat":"general information","name":"NoSpawnCacheModule.beforeCommand","ph":"X","ts":116461,"dur":419,"pid":1,"tid":60},
...
{"cat":"package creation","name":"src","ph":"X","ts":279844,"dur":15479,"pid":1,"tid":838},
...
{"name":"thread_name","ph":"M","pid":1,"tid":11,"args":{"name":"Service Thread"}},
{"cat":"gc notification","name":"minor GC","ph":"X","ts":334626,"dur":13000,"pid":1,"tid":11},
...
{"cat":"action processing","name":"Compiling third_party/grpc/src/core/lib/transport/status_conversion.cc","ph":"X","ts":12630845,"dur":136644,"pid":1,"tid":1546}
]
}
トレース イベントのタイムスタンプ(ts
)と期間(dur
)は、
マイクロ秒単位です。カテゴリ(cat
)は、ProfilerTask
の列挙値の 1 つです。
なお、イベントが非常に短く、
相互に通信しています。必要に応じて --noslim_json_profile
を渡します。
イベントの統合を防止できます。
関連ドキュメント: Chrome トレース イベント形式の仕様
analyze-profile
このプロファイリング方法は 2 つのステップで構成されています。まず、
--profile
フラグを使用してビルド/テストを行います。次に例を示します。
$ bazel build --profile=/tmp/prof //path/to:target
生成されるファイル(この場合は /tmp/prof
)はバイナリ ファイルであり、
analyze-profile
コマンドによって後処理され、分析されます。
$ bazel analyze-profile /tmp/prof
デフォルトでは、指定したプロファイルのサマリー分析情報が出力される 作成します。これには、各タスクタイプのさまざまなタスクの累積統計が含まれます。 クリティカル パスの分析について説明します。
デフォルトの出力の最初のセクションは、費やした時間の概要です。 異なるビルドフェーズ:
INFO: Profile created on Tue Jun 16 08:59:40 CEST 2020, build ID: 0589419c-738b-4676-a374-18f7bbc7ac23, output base: /home/johndoe/.cache/bazel/_bazel_johndoe/d8eb7a85967b22409442664d380222c0
=== PHASE SUMMARY INFORMATION ===
Total launch phase time 1.070 s 12.95%
Total init phase time 0.299 s 3.62%
Total loading phase time 0.878 s 10.64%
Total analysis phase time 1.319 s 15.98%
Total preparation phase time 0.047 s 0.57%
Total execution phase time 4.629 s 56.05%
Total finish phase time 0.014 s 0.18%
------------------------------------------------
Total run time 8.260 s 100.00%
Critical path (4.245 s):
Time Percentage Description
8.85 ms 0.21% _Ccompiler_Udeps for @local_config_cc// compiler_deps
3.839 s 90.44% action 'Compiling external/com_google_protobuf/src/google/protobuf/compiler/php/php_generator.cc [for host]'
270 ms 6.36% action 'Linking external/com_google_protobuf/protoc [for host]'
0.25 ms 0.01% runfiles for @com_google_protobuf// protoc
126 ms 2.97% action 'ProtoCompile external/com_google_protobuf/python/google/protobuf/compiler/plugin_pb2.py'
0.96 ms 0.02% runfiles for //tools/aquery_differ aquery_differ
メモリのプロファイリング
Bazel には Memory Profiler が組み込まれており、ルールのチェックに役立つ メモリ使用率が高くなります問題がある場合は、ヒープをダンプして 問題を引き起こしているコードの行を正確に特定します。
メモリ トラッキングの有効化
Bazel の呼び出しごとに、次の 2 つの起動フラグを渡す必要があります。
STARTUP_FLAGS=\
--host_jvm_args=-javaagent:$(BAZEL)/third_party/allocation_instrumenter/java-allocation-instrumenter-3.3.0.jar \
--host_jvm_args=-DRULE_MEMORY_TRACKER=1
これらのコマンドにより、サーバーがメモリ トラッキング モードで起動します。2023 年中に設定を忘れてしまった場合でも Bazel を一度呼び出すとサーバーが再起動するため、最初からやり直す必要があります。
メモリ トラッカーの使用
例として、ターゲット foo
を見て、その動作を確認します。送信先のみ
ビルド実行フェーズを実行しない場合は、
--nobuild
フラグ。
$ bazel $(STARTUP_FLAGS) build --nobuild //foo:foo
次に、Bazel インスタンス全体のメモリ消費量を確認します。
$ bazel $(STARTUP_FLAGS) info used-heap-size-after-gc
> 2594MB
bazel dump --rules
を使用して、ルールクラスごとに分類します。
$ bazel $(STARTUP_FLAGS) dump --rules
>
RULE COUNT ACTIONS BYTES EACH
genrule 33,762 33,801 291,538,824 8,635
config_setting 25,374 0 24,897,336 981
filegroup 25,369 25,369 97,496,272 3,843
cc_library 5,372 73,235 182,214,456 33,919
proto_library 4,140 110,409 186,776,864 45,115
android_library 2,621 36,921 218,504,848 83,366
java_library 2,371 12,459 38,841,000 16,381
_gen_source 719 2,157 9,195,312 12,789
_check_proto_library_deps 719 668 1,835,288 2,552
... (more output)
pprof
ファイルを生成して、メモリの使用量を確認します。
bazel dump --skylark_memory
を使用する場合:
$ bazel $(STARTUP_FLAGS) dump --skylark_memory=$HOME/prof.gz
> Dumping Starlark heap to: /usr/local/google/home/$USER/prof.gz
pprof
ツールを使用してヒープを調査します。手始めに、
pprof -flame $HOME/prof.gz
を使用してフレームグラフを取得する。
https://github.com/google/pprof から pprof
を取得します。
次の行のアノテーションが付けられた、最もホットなコールサイトのテキストダンプを取得します。
$ pprof -text -lines $HOME/prof.gz
>
flat flat% sum% cum cum%
146.11MB 19.64% 19.64% 146.11MB 19.64% android_library <native>:-1
113.02MB 15.19% 34.83% 113.02MB 15.19% genrule <native>:-1
74.11MB 9.96% 44.80% 74.11MB 9.96% glob <native>:-1
55.98MB 7.53% 52.32% 55.98MB 7.53% filegroup <native>:-1
53.44MB 7.18% 59.51% 53.44MB 7.18% sh_test <native>:-1
26.55MB 3.57% 63.07% 26.55MB 3.57% _generate_foo_files /foo/tc/tc.bzl:491
26.01MB 3.50% 66.57% 26.01MB 3.50% _build_foo_impl /foo/build_test.bzl:78
22.01MB 2.96% 69.53% 22.01MB 2.96% _build_foo_impl /foo/build_test.bzl:73
... (more output)