नियम लिखते समय, परफ़ॉर्मेंस से जुड़ी सबसे आम नुकसान, डिपेंडेंसी से इकट्ठा होने वाले डेटा को ट्रैवर्स या कॉपी करना होता है. पूरे बिल्ड में एग्रीगेट होने पर, ये कार्रवाइयां आसानी से O(N^2) समय या स्पेस ले सकती हैं. इससे बचने के लिए, यह समझना ज़रूरी है कि डिप्स का असरदार ढंग से इस्तेमाल कैसे किया जाए.
किसी सही जगह को ढूंढना मुश्किल हो सकता है. इसलिए, Basel ने आपको एक मेमोरी प्रोफ़ाइलर भी उपलब्ध कराया है. इससे आपको उन जगहों को ढूंढने में मदद मिलती है जहां आपसे कोई गलती हो सकती है. ध्यान रखें: जब तक किसी गलत नियम को बड़े पैमाने पर इस्तेमाल नहीं किया जाता, तब तक उस नियम को लिखने में आने वाली लागत का पता नहीं चलता.
डिपसेट का इस्तेमाल करें
नियम डिपेंडेंसी से जानकारी को रोल आउट करने के लिए, आपको डिपसेट का इस्तेमाल करना चाहिए. मौजूदा नियम के हिसाब से जानकारी पब्लिश करने के लिए, सिर्फ़ सादी सूचियों या निर्देशों का इस्तेमाल करें.
डिप्सेट, जानकारी को नेस्ट किए गए ग्राफ़ के रूप में दिखाता है, जिसकी मदद से जानकारी शेयर की जा सकती है.
नीचे दिया गया ग्राफ़ देखें:
C -> B -> A
D ---^
हर नोड एक स्ट्रिंग पब्लिश करता है. जानकारी में अंतर होने पर, डेटा ऐसा दिखता है:
a = depset(direct=['a'])
b = depset(direct=['b'], transitive=[a])
c = depset(direct=['c'], transitive=[b])
d = depset(direct=['d'], transitive=[b])
ध्यान दें कि हर आइटम का नाम सिर्फ़ एक बार दिया गया है. सूचियों के साथ आपको यह मिलेगा:
a = ['a']
b = ['b', 'a']
c = ['c', 'b', 'a']
d = ['d', 'b', 'a']
ध्यान दें कि इस मामले में 'a'
का उल्लेख चार बार हुआ है! बड़े ग्राफ़ के साथ, यह
समस्या और भी बदतर होती जाएगी.
यहां एक नियम लागू करने का उदाहरण दिया गया है, जिसमें ट्रांज़िटिव जानकारी को पब्लिश करने के लिए, सही तरीके से डिप्स का इस्तेमाल किया जाता है. ध्यान दें कि अगर आप चाहें, तो सूचियों का इस्तेमाल करके, नियम-स्थानीय जानकारी को पब्लिश करने में कोई समस्या नहीं है. ऐसा इसलिए है, क्योंकि यह O(N^2) नहीं है.
MyProvider = provider()
def _impl(ctx):
my_things = ctx.attr.things
all_things = depset(
direct=my_things,
transitive=[dep[MyProvider].all_things for dep in ctx.attr.deps]
)
...
return [MyProvider(
my_things=my_things, # OK, a flat list of rule-local things only
all_things=all_things, # OK, a depset containing dependencies
)]
ज़्यादा जानकारी के लिए, डिससेट की खास जानकारी पेज देखें.
depset.to_list()
को कॉल करने से बचें
to_list()
का इस्तेमाल करके, किसी डिप्सेट को फ़्लैट सूची में रखा जा सकता है. हालांकि, आम तौर पर ऐसा करने से O(N^2) लागत आती है. अगर हो सके, तो डीबग करने के मकसद को छोड़कर, डेटा को फ़्लैट करने से बचें.
एक आम गलतफ़हमी यह है कि अगर आप <xx>_binary
नियम जैसे टॉप-लेवल के टारगेट पर ही ऐसा करते हैं, तो
अलग से कमी का लेवल तय किया जा सकता है. ऐसा करने से, बिल्ड ग्राफ़ के हर लेवल पर लागत इकट्ठा नहीं होती है. हालांकि, ओवरलैप होने वाली डिपेंडेंसी के साथ टारगेट का सेट बनाने पर, यह अब भी O(N^2) है. ऐसा, टेस्ट //foo/tests/...
बनाते समय या IDE प्रोजेक्ट इंपोर्ट करते समय होता है.
depset
पर कॉल करने की संख्या कम करें
depset
को लूप में कॉल करना अक्सर गलती हो जाता है. इससे बहुत गहराई से घोंसला बनाने की समस्या पैदा हो सकती है, जो अच्छी तरह से काम नहीं करती है. उदाहरण के लिए:
x = depset()
for i in inputs:
# Do not do that.
x = depset(transitive = [x, i.deps])
इस कोड को आसानी से बदला जा सकता है. सबसे पहले, ट्रांज़िटिव डिपसेट इकट्ठा करें और उन सभी को एक साथ मर्ज करें:
transitive = []
for i in inputs:
transitive.append(i.deps)
x = depset(transitive = transitive)
सूची समझने की सुविधा का इस्तेमाल करके, कभी-कभी इसे कम किया जा सकता है:
x = depset(transitive = [i.deps for i in inputs])
कमांड लाइन के लिए ctx.action.orgs() का इस्तेमाल करें
कमांड लाइन बनाते समय आपको ctx.actions.args() का इस्तेमाल करना चाहिए. इससे, एक्ज़ीक्यूशन के चरण में किसी भी तरह की कमी को रोका जा सकता है.
पूरी तरह से तेज़ होने के अलावा, यह आपके नियमों की मेमोरी खपत को कम करेगा -- कभी-कभी 90% या उससे ज़्यादा तक.
यहां कुछ तरकीबें दी गई हैं:
डेपसेट और सूचियों को खुद आर्ग्युमेंट के तौर पर पास करने के बजाय, उन्हें सीधे आर्ग्युमेंट के तौर पर पास करें. ये
ctx.actions.args()
तक बढ़ाई जा सकती हैं. अगर आपको बंद किए गए कॉन्टेंट में कोई बदलाव करने की ज़रूरत है, तो ctx.actions.args#add में जाकर देखें कि इसके हिसाब से यह कॉन्टेंट सही है या नहीं.क्या आपने
File#path
को आर्ग्युमेंट के तौर पर पास किया है? कोई ज़रूरत नहीं है. कोई भी फ़ाइल अपने-आप उसके पाथ में बदल जाती है, जिसे बड़ा करने में लगने वाला समय टाला जाता है.स्ट्रिंग को एक साथ जोड़कर उन्हें बनाने से बचें. सबसे अच्छा स्ट्रिंग आर्ग्युमेंट एक कॉन्स्टेंट होता है, क्योंकि इसकी मेमोरी को आपके नियम के सभी इंस्टेंस के बीच शेयर किया जाएगा.
अगर कमांड लाइन के लिए आर्ग्युमेंट बहुत लंबे हैं, तो
ctx.actions.args()
ऑब्जेक्ट कोctx.actions.args#use_param_file
का इस्तेमाल करके, पैरामीटर फ़ाइल में शर्त के साथ या बिना किसी शर्त के लिखा जा सकता है. यह काम, पर्दे के पीछे करके तब किया जाता है, जब कार्रवाई पूरी होती है. अगर आपको पैरामीटर फ़ाइल को साफ़ तौर पर कंट्रोल करना है, तोctx.actions.write
का इस्तेमाल करके उसे मैन्युअल तरीके से लिखा जा सकता है.
उदाहरण:
def _impl(ctx):
...
args = ctx.actions.args()
file = ctx.declare_file(...)
files = depset(...)
# Bad, constructs a full string "--foo=<file path>" for each rule instance
args.add("--foo=" + file.path)
# Good, shares "--foo" among all rule instances, and defers file.path to later
# It will however pass ["--foo", <file path>] to the action command line,
# instead of ["--foo=<file_path>"]
args.add("--foo", file)
# Use format if you prefer ["--foo=<file path>"] to ["--foo", <file path>]
args.add(format="--foo=%s", value=file)
# Bad, makes a giant string of a whole depset
args.add(" ".join(["-I%s" % file.short_path for file in files])
# Good, only stores a reference to the depset
args.add_all(files, format_each="-I%s", map_each=_to_short_path)
# Function passed to map_each above
def _to_short_path(f):
return f.short_path
ट्रांज़िटिव ऐक्शन के इनपुट को डिपसेट होने चाहिए
ctx.actions.run का इस्तेमाल करके कार्रवाई करते समय, यह न भूलें कि inputs
फ़ील्ड में डिप्सेट स्वीकार किया जाता है. इसका इस्तेमाल तब करें, जब
डिपेंडेंसी से ट्रांज़िट के तौर पर इनपुट इकट्ठा किए जाएं.
inputs = depset(...)
ctx.actions.run(
inputs = inputs, # Do *not* turn inputs into a list
...
)
हैंगिंग
अगर ऐसा लगता है कि Basel को निलंबित कर दिया गया है, तो $(bazel info output_base)/server/jvm.out
फ़ाइल में थ्रेड डंप पाने के लिए, Ctrl-\ को दबाएं या बैज को SIGQUIT
सिग्नल (kill -3 $(bazel info server_pid)
) भेजें.
बेज़ल हैंग होने पर, हो सकता है कि आप bazel info
न चला पाएं. इसलिए, आम तौर पर output_base
डायरेक्ट्री, आपकी वर्कस्पेस डायरेक्ट्री में मौजूद bazel-<workspace>
सिमलिंक की पैरंट होती है.
परफ़ॉर्मेंस प्रोफ़ाइलिंग
Baज़ल, आउटपुट बेस में डिफ़ॉल्ट रूप से, command.profile.gz
पर JSON प्रोफ़ाइल
लिखता है. जगह की जानकारी को --profile
फ़्लैग के साथ कॉन्फ़िगर किया जा सकता है, उदाहरण के लिए, --profile=/tmp/profile.gz
. .gz
पर खत्म होने वाली जगह को GZIP की मदद से कंप्रेस किया जाता है.
नतीजे देखने के लिए, Chrome ब्राउज़र टैब में chrome://tracing
खोलें,
"लोड करें" पर क्लिक करें और प्रोफ़ाइल फ़ाइल (संभावित रूप से कंप्रेस की गई) चुनें. ज़्यादा जानकारी वाले नतीजों के लिए, नीचे बाएं कोने में मौजूद बॉक्स पर क्लिक करें.
नेविगेट करने के लिए, कीबोर्ड के इन कंट्रोल का इस्तेमाल किया जा सकता है:
- "चुनें" मोड के लिए
1
दबाएं. इस मोड में, इवेंट की जानकारी की जांच करने के लिए खास बॉक्स चुनें (नीचे बाएं कोने को देखें). खास जानकारी और एग्रीगेट किए गए आंकड़े पाने के लिए, एक से ज़्यादा इवेंट चुनें. - "पैन" मोड के लिए
2
दबाएं. इसके बाद, व्यू को एक से दूसरी जगह ले जाने के लिए, माउस को खींचें और छोड़ें. बाईं/दाईं ओर जाने के लिए,a
/d
का भी इस्तेमाल किया जा सकता है. - "ज़ूम" मोड के लिए
3
दबाएं. इसके बाद, ज़ूम करने के लिए माउस को खींचें और छोड़ें. ज़ूम इन/आउट करने के लिए,w
/s
का भी इस्तेमाल किया जा सकता है. - "समय" मोड के लिए
4
दबाएं, जहां आप दो इवेंट के बीच की दूरी माप सकते हैं. - सभी कंट्रोल के बारे में जानने के लिए
?
दबाएं.
प्रोफ़ाइल की जानकारी
प्रोफ़ाइल का उदाहरण:
पहला डायग्राम. प्रोफ़ाइल का उदाहरण.
यहां कुछ खास लाइनें दी गई हैं:
action counters
: यह दिखाता है कि फ़्लाइट में एक साथ कितनी कार्रवाइयां की जा रही हैं. सही वैल्यू देखने के लिए, उस पर क्लिक करें. क्लीन बिल्ड में--jobs
की वैल्यू तक होना चाहिए.cpu counters
: बिल्ड के हर सेकंड के लिए, Baज़र के लिए इस्तेमाल होने वाले सीपीयू की मात्रा दिखाता है (एक कोर की वैल्यू 1 का मतलब है कि 100% व्यस्त है).Critical Path
: क्रिटिकल पाथ पर हर कार्रवाई के लिए एक ब्लॉक दिखाता है.grpc-command-1
: बेज़ल का मुख्य थ्रेड. इससे यह जानने में मदद मिलती है कि बेज़ल क्या कर रहे हैं, उदाहरण के लिए "Launch Bazu", "evaluateTargetPatterns", और "runAnalysisPhase".Service Thread
: छोटे और बड़े पैमाने पर कूड़े के कलेक्शन (जीसी) पर लगी रोक को दिखाता है.
अन्य लाइनें, बेज़ल थ्रेड दिखाती हैं और उस थ्रेड के सभी इवेंट दिखाती हैं.
परफ़ॉर्मेंस से जुड़ी सामान्य समस्याएं
परफ़ॉर्मेंस प्रोफ़ाइलों का विश्लेषण करते समय, इन चीज़ों को देखें:
- विश्लेषण का चरण (
runAnalysisPhase
), उम्मीद से ज़्यादा धीमा होता है. खास तौर पर, इंक्रीमेंटल बिल्ड में. यह नियम के खराब तरीके से लागू होने का संकेत हो सकता है. उदाहरण के लिए, एक ऐसा नियम जो डिपसेट को फ़्लैट करता है. पैकेज लोडिंग बहुत ज़्यादा टारगेट, जटिल मैक्रो या बार-बार होने वाले ग्लब्स की वजह से धीमी हो सकती है. - धीमी रफ़्तार से की जाने वाली कार्रवाइयां, खास तौर पर वे कार्रवाइयां जो अहम पाथ पर हैं. बड़ी कार्रवाइयों को
एक से ज़्यादा छोटी कार्रवाइयों में बांटा जा सकता है या उनकी रफ़्तार को बढ़ाने के लिए,
ट्रांज़िव (ट्रांज़िव) वाली निर्भरताओं के सेट को कम किया जा सकता है. साथ ही, असामान्य उच्च गैर-
PROCESS_TIME
(जैसे किREMOTE_SETUP
याFETCH
) की जांच करें. - बॉटलनेक, कम थ्रेड में व्यस्त हैं और बाकी सभी थ्रेड काम नहीं कर रहे हैं / नतीजे का इंतज़ार कर रहे हैं (ऊपर दिए गए स्क्रीनशॉट में 15 से 30 सेकंड के बीच देखें). इसे ऑप्टिमाइज़ करने के लिए नियम लागू करने की ज़रूरत होगी या बेज़ल को ही घुल-मिल जाना पड़ेगा. ऐसा तब भी हो सकता है, जब ज़रूरत से ज़्यादा जीसी होता है.
प्रोफ़ाइल फ़ाइल का फ़ॉर्मैट
टॉप लेवल ऑब्जेक्ट में मेटाडेटा (otherData
) और असल ट्रेस करने वाला डेटा (traceEvents
) शामिल है. मेटाडेटा में ज़्यादा जानकारी शामिल होती है, जैसे कि शुरू करने का आईडी और Baज़र को शुरू करने की तारीख.
उदाहरण:
{
"otherData": {
"build_id": "101bff9a-7243-4c1a-8503-9dc6ae4c3b05",
"date": "Tue Jun 16 08:30:21 CEST 2020",
"profile_finish_ts": "1677666095162000",
"output_base": "/usr/local/google/_bazel_johndoe/573d4be77eaa72b91a3dfaa497bf8cd0"
},
"traceEvents": [
{"name":"thread_name","ph":"M","pid":1,"tid":0,"args":{"name":"Critical Path"}},
{"cat":"build phase marker","name":"Launch Bazel","ph":"X","ts":-1824000,"dur":1824000,"pid":1,"tid":60},
...
{"cat":"general information","name":"NoSpawnCacheModule.beforeCommand","ph":"X","ts":116461,"dur":419,"pid":1,"tid":60},
...
{"cat":"package creation","name":"src","ph":"X","ts":279844,"dur":15479,"pid":1,"tid":838},
...
{"name":"thread_name","ph":"M","pid":1,"tid":11,"args":{"name":"Service Thread"}},
{"cat":"gc notification","name":"minor GC","ph":"X","ts":334626,"dur":13000,"pid":1,"tid":11},
...
{"cat":"action processing","name":"Compiling third_party/grpc/src/core/lib/transport/status_conversion.cc","ph":"X","ts":12630845,"dur":136644,"pid":1,"tid":1546}
]
}
ट्रेस इवेंट में टाइमस्टैंप (ts
) और अवधि (dur
) माइक्रोसेकंड में दी गई हैं. कैटगरी (cat
), ProfilerTask
की ईनम वैल्यू में से एक है.
ध्यान दें कि अगर कुछ इवेंट बहुत छोटे हैं और एक-दूसरे के करीब हैं, तो उन्हें एक साथ मर्ज कर दिया जाता है. अगर आपको इवेंट मर्ज होने से रोकना है, तो --noslim_json_profile
को पास करें.
Chrome ट्रेस इवेंट फ़ॉर्मैट की खास बातें भी देखें.
प्रोफ़ाइल का विश्लेषण करें
प्रोफ़ाइल बनाने के इस तरीके में दो चरण हैं, सबसे पहले आपको --profile
फ़्लैग की मदद से अपना बिल्ड/टेस्ट करना होगा. उदाहरण के लिए,
$ bazel build --profile=/tmp/prof //path/to:target
जनरेट की गई फ़ाइल (इस मामले में /tmp/prof
) एक बाइनरी फ़ाइल है. इसे analyze-profile
निर्देश की मदद से पोस्ट प्रोसेस किया जा सकता है और उसका विश्लेषण किया जा सकता है:
$ bazel analyze-profile /tmp/prof
डिफ़ॉल्ट रूप से, यह तय प्रोफ़ाइल डेटा फ़ाइल के लिए खास जानकारी वाला विश्लेषण जानकारी प्रिंट करता है. इसमें, बिल्ड के हर चरण के लिए, अलग-अलग तरह के टास्क के कुल आंकड़े शामिल होते हैं. साथ ही, ज़रूरी पाथ का विश्लेषण भी शामिल होता है.
डिफ़ॉल्ट आउटपुट के पहले सेक्शन में, बिल्ड के अलग-अलग चरणों में लगने वाले समय की खास जानकारी होती है:
INFO: Profile created on Tue Jun 16 08:59:40 CEST 2020, build ID: 0589419c-738b-4676-a374-18f7bbc7ac23, output base: /home/johndoe/.cache/bazel/_bazel_johndoe/d8eb7a85967b22409442664d380222c0
=== PHASE SUMMARY INFORMATION ===
Total launch phase time 1.070 s 12.95%
Total init phase time 0.299 s 3.62%
Total loading phase time 0.878 s 10.64%
Total analysis phase time 1.319 s 15.98%
Total preparation phase time 0.047 s 0.57%
Total execution phase time 4.629 s 56.05%
Total finish phase time 0.014 s 0.18%
------------------------------------------------
Total run time 8.260 s 100.00%
Critical path (4.245 s):
Time Percentage Description
8.85 ms 0.21% _Ccompiler_Udeps for @local_config_cc// compiler_deps
3.839 s 90.44% action 'Compiling external/com_google_protobuf/src/google/protobuf/compiler/php/php_generator.cc [for host]'
270 ms 6.36% action 'Linking external/com_google_protobuf/protoc [for host]'
0.25 ms 0.01% runfiles for @com_google_protobuf// protoc
126 ms 2.97% action 'ProtoCompile external/com_google_protobuf/python/google/protobuf/compiler/plugin_pb2.py'
0.96 ms 0.02% runfiles for //tools/aquery_differ aquery_differ
मेमोरी की प्रोफ़ाइल बनाना
Basel में एक मेमोरी प्रोफ़ाइलर होता है जो आपके नियम में मेमोरी के इस्तेमाल की जांच करने में आपकी मदद कर सकता है. अगर कोई समस्या है, तो उस कोड की सटीक लाइन का पता लगाने के लिए उस हीप को छोड़ें.
मेमोरी ट्रैकिंग की सुविधा चालू करना
आपको हर Baज़र के अनुरोध के लिए, इन दो स्टार्टअप फ़्लैग को पास करना होगा:
STARTUP_FLAGS=\
--host_jvm_args=-javaagent:$(BAZEL)/third_party/allocation_instrumenter/java-allocation-instrumenter-3.3.0.jar \
--host_jvm_args=-DRULE_MEMORY_TRACKER=1
ये सर्वर को मेमोरी ट्रैकिंग मोड में शुरू करते हैं. अगर एक बार भी बेज़ल इन्वेशन के लिए आप इन्हें भूल जाते हैं, तो सर्वर रीस्टार्ट हो जाएगा और आपको फिर से शुरू करना होगा.
मेमोरी ट्रैकर का इस्तेमाल करना
उदाहरण के लिए, टारगेट foo
को देखें और जानें कि यह क्या करता है. बिल्ड प्रोसेस को पूरा करने के चरण के बजाय, सिर्फ़ विश्लेषण चलाने के लिए --nobuild
फ़्लैग जोड़ें.
$ bazel $(STARTUP_FLAGS) build --nobuild //foo:foo
इसके बाद, देखें कि पूरे Basel इंस्टेंस में कितनी मेमोरी इस्तेमाल होती है:
$ bazel $(STARTUP_FLAGS) info used-heap-size-after-gc
> 2594MB
bazel dump --rules
का इस्तेमाल करके इसे नियम की क्लास के हिसाब से बांटें:
$ bazel $(STARTUP_FLAGS) dump --rules
>
RULE COUNT ACTIONS BYTES EACH
genrule 33,762 33,801 291,538,824 8,635
config_setting 25,374 0 24,897,336 981
filegroup 25,369 25,369 97,496,272 3,843
cc_library 5,372 73,235 182,214,456 33,919
proto_library 4,140 110,409 186,776,864 45,115
android_library 2,621 36,921 218,504,848 83,366
java_library 2,371 12,459 38,841,000 16,381
_gen_source 719 2,157 9,195,312 12,789
_check_proto_library_deps 719 668 1,835,288 2,552
... (more output)
bazel dump --skylark_memory
का इस्तेमाल करके pprof
फ़ाइल बनाकर देखें कि मेमोरी कहां जा रही है:
$ bazel $(STARTUP_FLAGS) dump --skylark_memory=$HOME/prof.gz
> Dumping Starlark heap to: /usr/local/google/home/$USER/prof.gz
हीप की जांच करने के लिए, pprof
टूल का इस्तेमाल करें. pprof -flame $HOME/prof.gz
का इस्तेमाल करके फ़्लेम ग्राफ़ बनाना एक अच्छा तरीका है.
https://github.com/google/pprof से pprof
पाएं.
सबसे लोकप्रिय कॉल साइटों का एक टेक्स्ट डंप पाएं, जिसके साथ लाइनों की जानकारी दी गई हो:
$ pprof -text -lines $HOME/prof.gz
>
flat flat% sum% cum cum%
146.11MB 19.64% 19.64% 146.11MB 19.64% android_library <native>:-1
113.02MB 15.19% 34.83% 113.02MB 15.19% genrule <native>:-1
74.11MB 9.96% 44.80% 74.11MB 9.96% glob <native>:-1
55.98MB 7.53% 52.32% 55.98MB 7.53% filegroup <native>:-1
53.44MB 7.18% 59.51% 53.44MB 7.18% sh_test <native>:-1
26.55MB 3.57% 63.07% 26.55MB 3.57% _generate_foo_files /foo/tc/tc.bzl:491
26.01MB 3.50% 66.57% 26.01MB 3.50% _build_foo_impl /foo/build_test.bzl:78
22.01MB 2.96% 69.53% 22.01MB 2.96% _build_foo_impl /foo/build_test.bzl:73
... (more output)