परफ़ॉर्मेंस को ऑप्टिमाइज़ करना

समस्या की शिकायत करें सोर्स देखें Nightly · 8.4 · 8.3 · 8.2 · 8.1 · 8.0 · 7.6

नियम लिखते समय, परफ़ॉर्मेंस से जुड़ी सबसे आम समस्या यह होती है कि डिपेंडेंसी से इकट्ठा किए गए डेटा को ट्रैवर्स या कॉपी किया जाता है. पूरे बिल्ड में एग्रीगेट किए जाने पर, इन कार्रवाइयों में O(N^2) समय या स्पेस लग सकता है. इससे बचने के लिए, यह समझना ज़रूरी है कि depsets का असरदार तरीके से इस्तेमाल कैसे किया जाए.

इसे सही तरीके से लागू करना मुश्किल हो सकता है. इसलिए, Bazel एक मेमोरी प्रोफ़ाइलर भी उपलब्ध कराता है. इससे आपको उन जगहों का पता लगाने में मदद मिलती है जहां आपने गलती की हो सकती है. चेतावनी: किसी खराब नियम को लिखने की लागत तब तक पता नहीं चलती, जब तक उसका बड़े पैमाने पर इस्तेमाल नहीं किया जाता.

डिपसेट का इस्तेमाल करना

नियमों की डिपेंडेंसी से जानकारी इकट्ठा करते समय, आपको depsets का इस्तेमाल करना चाहिए. मौजूदा नियम के हिसाब से जानकारी पब्लिश करने के लिए, सिर्फ़ सामान्य सूचियों या डिक्ट का इस्तेमाल करें.

डिपसेट, जानकारी को नेस्ट किए गए ग्राफ़ के तौर पर दिखाता है. इससे जानकारी शेयर की जा सकती है.

इस ग्राफ़ पर ध्यान दें:

C -> B -> A
D ---^

हर नोड एक स्ट्रिंग पब्लिश करता है. डिपसेट के साथ डेटा ऐसा दिखता है:

a = depset(direct=['a'])
b = depset(direct=['b'], transitive=[a])
c = depset(direct=['c'], transitive=[b])
d = depset(direct=['d'], transitive=[b])

ध्यान दें कि हर आइटम का ज़िक्र सिर्फ़ एक बार किया गया है. सूचियों की मदद से, आपको यह जानकारी मिलेगी:

a = ['a']
b = ['b', 'a']
c = ['c', 'b', 'a']
d = ['d', 'b', 'a']

ध्यान दें कि इस मामले में 'a' का ज़िक्र चार बार किया गया है! बड़े ग्राफ़ में यह समस्या और भी बढ़ जाएगी.

यहां नियम लागू करने का एक उदाहरण दिया गया है, जिसमें ट्रांज़िटिव जानकारी पब्लिश करने के लिए, depsets का सही तरीके से इस्तेमाल किया गया है. ध्यान दें कि अगर आपको सूची का इस्तेमाल करके नियम से जुड़ी जानकारी पब्लिश करनी है, तो ऐसा किया जा सकता है. ऐसा इसलिए, क्योंकि यह O(N^2) नहीं है.

MyProvider = provider()

def _impl(ctx):
  my_things = ctx.attr.things
  all_things = depset(
      direct=my_things,
      transitive=[dep[MyProvider].all_things for dep in ctx.attr.deps]
  )
  ...
  return [MyProvider(
    my_things=my_things,  # OK, a flat list of rule-local things only
    all_things=all_things,  # OK, a depset containing dependencies
  )]

ज़्यादा जानकारी के लिए, depset की खास जानकारी पेज देखें.

depset.to_list() को कॉल करने से बचें

to_list() का इस्तेमाल करके, किसी डीपसेट को फ़्लैट सूची में बदला जा सकता है. हालांकि, ऐसा करने पर आम तौर पर O(N^2) लागत आती है. अगर हो सके, तो डीबग करने के अलावा किसी और काम के लिए, depsets को फ़्लैट न करें.

आम तौर पर, यह गलतफ़हमी होती है कि अगर सिर्फ़ टॉप-लेवल के टारगेट, जैसे कि <xx>_binary नियम पर depsets को फ़्लैट किया जाता है, तो उन्हें बिना किसी शुल्क के फ़्लैट किया जा सकता है. ऐसा इसलिए, क्योंकि तब लागत, बिल्ड ग्राफ़ के हर लेवल पर नहीं जुड़ती है. हालांकि, अगर टारगेट का ऐसा सेट बनाया जाता है जिसमें एक-दूसरे पर निर्भरता होती है, तो यह अब भी O(N^2) होता है. ऐसा तब होता है, जब टेस्ट बनाए जा रहे हों //foo/tests/... या किसी आईडीई प्रोजेक्ट को इंपोर्ट किया जा रहा हो.

कॉल की संख्या को depset तक कम करो

लूप के अंदर depset को कॉल करना अक्सर एक गलती होती है. इससे बहुत ज़्यादा नेस्टिंग वाले डिप्लॉयमेंट सेट बन सकते हैं, जिनकी परफ़ॉर्मेंस खराब होती है. उदाहरण के लिए:

x = depset()
for i in inputs:
    # Do not do that.
    x = depset(transitive = [x, i.deps])

इस कोड को आसानी से बदला जा सकता है. सबसे पहले, ट्रांज़िटिव डिपसेट इकट्ठा करें और उन सभी को एक साथ मर्ज करें:

transitive = []

for i in inputs:
    transitive.append(i.deps)

x = depset(transitive = transitive)

कभी-कभी, लिस्ट कंप्रीहेंशन का इस्तेमाल करके इसे कम किया जा सकता है:

x = depset(transitive = [i.deps for i in inputs])

कमांड लाइन के लिए ctx.actions.args() का इस्तेमाल करना

कमांड लाइन बनाते समय, आपको ctx.actions.args() का इस्तेमाल करना चाहिए. इससे, किसी भी depsets को एक्ज़ीक्यूशन फ़ेज़ में ले जाया जाता है.

यह तरीका, पहले तरीके से ज़्यादा तेज़ है. साथ ही, इससे आपके नियमों के लिए मेमोरी का इस्तेमाल कम हो जाएगा. कभी-कभी यह 90% या इससे ज़्यादा भी हो सकता है.

यहां कुछ तरकीबें दी गई हैं:

  • depsets और सूचियों को सीधे तौर पर आर्ग्युमेंट के तौर पर पास करें. इन्हें खुद फ़्लैट करने की ज़रूरत नहीं है. ctx.actions.args() आपके लिए, इन सवालों के जवाबों को बड़ा कर देगा. अगर आपको डिसेट के कॉन्टेंट में कोई बदलाव करना है, तो ctx.actions.args#add देखें. इससे आपको पता चलेगा कि क्या कोई बदलाव किया जा सकता है.

  • क्या आपने File#path को आर्ग्युमेंट के तौर पर पास किया है? ज़रूरत नहीं है. कोई भी फ़ाइल अपने-आप उसके पाथ में बदल जाती है. इसे एक्सपैंशन के समय के लिए रोक दिया जाता है.

  • स्ट्रिंग को एक साथ जोड़कर बनाने से बचें. सबसे अच्छा स्ट्रिंग आर्ग्युमेंट एक कॉन्स्टेंट होता है, क्योंकि इसकी मेमोरी आपके नियम के सभी इंस्टेंस के बीच शेयर की जाएगी.

  • अगर कमांड लाइन के लिए आर्ग्युमेंट बहुत ज़्यादा हैं, तो ctx.actions.args() ऑब्जेक्ट को ctx.actions.args#use_param_file का इस्तेमाल करके, पैरामीटर फ़ाइल में लिखा जा सकता है. ऐसा कुछ शर्तों के साथ या बिना किसी शर्त के किया जा सकता है. जब कार्रवाई की जाती है, तो यह काम बैकग्राउंड में होता है. अगर आपको पैरामीटर फ़ाइल को साफ़ तौर पर कंट्रोल करना है, तो ctx.actions.write का इस्तेमाल करके इसे मैन्युअल तरीके से लिखें.

उदाहरण:

def _impl(ctx):
  ...
  args = ctx.actions.args()
  file = ctx.declare_file(...)
  files = depset(...)

  # Bad, constructs a full string "--foo=<file path>" for each rule instance
  args.add("--foo=" + file.path)

  # Good, shares "--foo" among all rule instances, and defers file.path to later
  # It will however pass ["--foo", <file path>] to the action command line,
  # instead of ["--foo=<file_path>"]
  args.add("--foo", file)

  # Use format if you prefer ["--foo=<file path>"] to ["--foo", <file path>]
  args.add(format="--foo=%s", value=file)

  # Bad, makes a giant string of a whole depset
  args.add(" ".join(["-I%s" % file.short_path for file in files])

  # Good, only stores a reference to the depset
  args.add_all(files, format_each="-I%s", map_each=_to_short_path)

# Function passed to map_each above
def _to_short_path(f):
  return f.short_path

ट्रांज़िटिव ऐक्शन इनपुट, depsets होने चाहिए

ctx.actions.run का इस्तेमाल करके कोई कार्रवाई बनाते समय, यह न भूलें कि inputs फ़ील्ड, depset स्वीकार करता है. जब भी ट्रांज़िटिव तरीके से डिपेंडेंसी से इनपुट इकट्ठा किए जाते हैं, तब इस एनोटेशन का इस्तेमाल करें.

inputs = depset(...)
ctx.actions.run(
  inputs = inputs,  # Do *not* turn inputs into a list
  ...
)

हैंगिंग

अगर Bazel काम नहीं कर रहा है, तो Ctrl-\ दबाएं या Bazel को SIGQUIT सिग्नल (kill -3 $(bazel info server_pid)) भेजें. इससे आपको $(bazel info output_base)/server/jvm.out फ़ाइल में थ्रेड डंप मिल जाएगा.

अगर Bazel काम नहीं कर रहा है, तो हो सकता है कि bazel info को न चलाया जा सके. इसलिए, output_base डायरेक्ट्री आम तौर पर आपकी वर्कस्पेस डायरेक्ट्री में मौजूद bazel-<workspace> सिंबल लिंक की पैरंट डायरेक्ट्री होती है.

परफ़ॉर्मेंस प्रोफ़ाइलिंग

JSON ट्रेस प्रोफ़ाइल से, यह समझने में मदद मिलती है कि Bazel ने इनवोकेशन के दौरान किस काम में समय लगाया.

--experimental_command_profile फ़्लैग का इस्तेमाल, अलग-अलग तरह की Java फ़्लाइट रिकॉर्डर प्रोफ़ाइलें कैप्चर करने के लिए किया जा सकता है. जैसे, सीपीयू टाइम, वॉल टाइम, मेमोरी ऐलोकेशन, और लॉक कंटेंशन.

--starlark_cpu_profile फ़्लैग का इस्तेमाल, सभी Starlark थ्रेड के ज़रिए सीपीयू के इस्तेमाल की pprof प्रोफ़ाइल लिखने के लिए किया जा सकता है.

मेमोरी प्रोफ़ाइलिंग

Bazel में पहले से मौजूद मेमोरी प्रोफ़ाइलर होता है. इससे आपको अपने नियम के लिए इस्तेमाल की गई मेमोरी की जांच करने में मदद मिल सकती है. अगर कोई समस्या है, तो हीप को डंप करके उस कोड की सटीक लाइन का पता लगाया जा सकता है जिसकी वजह से समस्या आ रही है.

मेमोरी ट्रैकिंग की सुविधा चालू करना

आपको इन दोनों स्टार्टअप फ़्लैग को Bazel के हर इनवोकेशन में पास करना होगा:

  STARTUP_FLAGS=\
  --host_jvm_args=-javaagent:<path to java-allocation-instrumenter-3.3.0.jar> \
  --host_jvm_args=-DRULE_MEMORY_TRACKER=1

इनसे सर्वर, मेमोरी ट्रैकिंग मोड में शुरू होता है. अगर आपने इनमें से किसी एक को भी Bazel इनवोकेशन के लिए इस्तेमाल नहीं किया, तो सर्वर रीस्टार्ट हो जाएगा और आपको फिर से शुरू करना होगा.

मेमोरी ट्रैकर का इस्तेमाल करना

उदाहरण के तौर पर, टारगेट foo को देखें और जानें कि यह क्या करता है. सिर्फ़ विश्लेषण करने के लिए, --nobuild फ़्लैग जोड़ें. इससे, बिल्ड एक्ज़ीक्यूशन फ़ेज़ नहीं चलेगा.

$ bazel $(STARTUP_FLAGS) build --nobuild //foo:foo

इसके बाद, देखें कि पूरा Bazel इंस्टेंस कितनी मेमोरी इस्तेमाल करता है:

$ bazel $(STARTUP_FLAGS) info used-heap-size-after-gc
> 2594MB

bazel dump --rules का इस्तेमाल करके, नियम की क्लास के हिसाब से इसे बांटें:

$ bazel $(STARTUP_FLAGS) dump --rules
>

RULE                                 COUNT     ACTIONS          BYTES         EACH
genrule                             33,762      33,801    291,538,824        8,635
config_setting                      25,374           0     24,897,336          981
filegroup                           25,369      25,369     97,496,272        3,843
cc_library                           5,372      73,235    182,214,456       33,919
proto_library                        4,140     110,409    186,776,864       45,115
android_library                      2,621      36,921    218,504,848       83,366
java_library                         2,371      12,459     38,841,000       16,381
_gen_source                            719       2,157      9,195,312       12,789
_check_proto_library_deps              719         668      1,835,288        2,552
... (more output)

bazel dump --skylark_memory का इस्तेमाल करके, pprof फ़ाइल जनरेट करें और देखें कि मेमोरी कहां जा रही है:

$ bazel $(STARTUP_FLAGS) dump --skylark_memory=$HOME/prof.gz
> Dumping Starlark heap to: /usr/local/google/home/$USER/prof.gz

ढेर की जांच करने के लिए, pprof टूल का इस्तेमाल करें. शुरुआत करने के लिए, pprof -flame $HOME/prof.gz का इस्तेमाल करके फ़्लेम ग्राफ़ पाना एक अच्छा विकल्प है.

pprof को https://github.com/google/pprof से डाउनलोड करें.

लाइनों के साथ एनोटेट की गई सबसे ज़्यादा कॉल वाली साइटों का टेक्स्ट डंप पाएं:

$ pprof -text -lines $HOME/prof.gz
>
      flat  flat%   sum%        cum   cum%
  146.11MB 19.64% 19.64%   146.11MB 19.64%  android_library <native>:-1
  113.02MB 15.19% 34.83%   113.02MB 15.19%  genrule <native>:-1
   74.11MB  9.96% 44.80%    74.11MB  9.96%  glob <native>:-1
   55.98MB  7.53% 52.32%    55.98MB  7.53%  filegroup <native>:-1
   53.44MB  7.18% 59.51%    53.44MB  7.18%  sh_test <native>:-1
   26.55MB  3.57% 63.07%    26.55MB  3.57%  _generate_foo_files /foo/tc/tc.bzl:491
   26.01MB  3.50% 66.57%    26.01MB  3.50%  _build_foo_impl /foo/build_test.bzl:78
   22.01MB  2.96% 69.53%    22.01MB  2.96%  _build_foo_impl /foo/build_test.bzl:73
   ... (more output)