ACPI / EC: Work around method reentrancy limit in ACPICA for _Qxx
[cascardo/linux.git] / tools / perf / util / dso.c
1 #include <asm/bug.h>
2 #include <sys/time.h>
3 #include <sys/resource.h>
4 #include "symbol.h"
5 #include "dso.h"
6 #include "machine.h"
7 #include "auxtrace.h"
8 #include "util.h"
9 #include "debug.h"
10 #include "vdso.h"
11
12 char dso__symtab_origin(const struct dso *dso)
13 {
14         static const char origin[] = {
15                 [DSO_BINARY_TYPE__KALLSYMS]                     = 'k',
16                 [DSO_BINARY_TYPE__VMLINUX]                      = 'v',
17                 [DSO_BINARY_TYPE__JAVA_JIT]                     = 'j',
18                 [DSO_BINARY_TYPE__DEBUGLINK]                    = 'l',
19                 [DSO_BINARY_TYPE__BUILD_ID_CACHE]               = 'B',
20                 [DSO_BINARY_TYPE__FEDORA_DEBUGINFO]             = 'f',
21                 [DSO_BINARY_TYPE__UBUNTU_DEBUGINFO]             = 'u',
22                 [DSO_BINARY_TYPE__OPENEMBEDDED_DEBUGINFO]       = 'o',
23                 [DSO_BINARY_TYPE__BUILDID_DEBUGINFO]            = 'b',
24                 [DSO_BINARY_TYPE__SYSTEM_PATH_DSO]              = 'd',
25                 [DSO_BINARY_TYPE__SYSTEM_PATH_KMODULE]          = 'K',
26                 [DSO_BINARY_TYPE__SYSTEM_PATH_KMODULE_COMP]     = 'm',
27                 [DSO_BINARY_TYPE__GUEST_KALLSYMS]               = 'g',
28                 [DSO_BINARY_TYPE__GUEST_KMODULE]                = 'G',
29                 [DSO_BINARY_TYPE__GUEST_KMODULE_COMP]           = 'M',
30                 [DSO_BINARY_TYPE__GUEST_VMLINUX]                = 'V',
31         };
32
33         if (dso == NULL || dso->symtab_type == DSO_BINARY_TYPE__NOT_FOUND)
34                 return '!';
35         return origin[dso->symtab_type];
36 }
37
38 int dso__read_binary_type_filename(const struct dso *dso,
39                                    enum dso_binary_type type,
40                                    char *root_dir, char *filename, size_t size)
41 {
42         char build_id_hex[SBUILD_ID_SIZE];
43         int ret = 0;
44         size_t len;
45
46         switch (type) {
47         case DSO_BINARY_TYPE__DEBUGLINK: {
48                 char *debuglink;
49
50                 len = __symbol__join_symfs(filename, size, dso->long_name);
51                 debuglink = filename + len;
52                 while (debuglink != filename && *debuglink != '/')
53                         debuglink--;
54                 if (*debuglink == '/')
55                         debuglink++;
56
57                 ret = -1;
58                 if (!is_regular_file(filename))
59                         break;
60
61                 ret = filename__read_debuglink(filename, debuglink,
62                                                size - (debuglink - filename));
63                 }
64                 break;
65         case DSO_BINARY_TYPE__BUILD_ID_CACHE:
66                 if (dso__build_id_filename(dso, filename, size) == NULL)
67                         ret = -1;
68                 break;
69
70         case DSO_BINARY_TYPE__FEDORA_DEBUGINFO:
71                 len = __symbol__join_symfs(filename, size, "/usr/lib/debug");
72                 snprintf(filename + len, size - len, "%s.debug", dso->long_name);
73                 break;
74
75         case DSO_BINARY_TYPE__UBUNTU_DEBUGINFO:
76                 len = __symbol__join_symfs(filename, size, "/usr/lib/debug");
77                 snprintf(filename + len, size - len, "%s", dso->long_name);
78                 break;
79
80         case DSO_BINARY_TYPE__OPENEMBEDDED_DEBUGINFO:
81         {
82                 const char *last_slash;
83                 size_t dir_size;
84
85                 last_slash = dso->long_name + dso->long_name_len;
86                 while (last_slash != dso->long_name && *last_slash != '/')
87                         last_slash--;
88
89                 len = __symbol__join_symfs(filename, size, "");
90                 dir_size = last_slash - dso->long_name + 2;
91                 if (dir_size > (size - len)) {
92                         ret = -1;
93                         break;
94                 }
95                 len += scnprintf(filename + len, dir_size, "%s",  dso->long_name);
96                 len += scnprintf(filename + len , size - len, ".debug%s",
97                                                                 last_slash);
98                 break;
99         }
100
101         case DSO_BINARY_TYPE__BUILDID_DEBUGINFO:
102                 if (!dso->has_build_id) {
103                         ret = -1;
104                         break;
105                 }
106
107                 build_id__sprintf(dso->build_id,
108                                   sizeof(dso->build_id),
109                                   build_id_hex);
110                 len = __symbol__join_symfs(filename, size, "/usr/lib/debug/.build-id/");
111                 snprintf(filename + len, size - len, "%.2s/%s.debug",
112                          build_id_hex, build_id_hex + 2);
113                 break;
114
115         case DSO_BINARY_TYPE__VMLINUX:
116         case DSO_BINARY_TYPE__GUEST_VMLINUX:
117         case DSO_BINARY_TYPE__SYSTEM_PATH_DSO:
118                 __symbol__join_symfs(filename, size, dso->long_name);
119                 break;
120
121         case DSO_BINARY_TYPE__GUEST_KMODULE:
122         case DSO_BINARY_TYPE__GUEST_KMODULE_COMP:
123                 path__join3(filename, size, symbol_conf.symfs,
124                             root_dir, dso->long_name);
125                 break;
126
127         case DSO_BINARY_TYPE__SYSTEM_PATH_KMODULE:
128         case DSO_BINARY_TYPE__SYSTEM_PATH_KMODULE_COMP:
129                 __symbol__join_symfs(filename, size, dso->long_name);
130                 break;
131
132         case DSO_BINARY_TYPE__KCORE:
133         case DSO_BINARY_TYPE__GUEST_KCORE:
134                 snprintf(filename, size, "%s", dso->long_name);
135                 break;
136
137         default:
138         case DSO_BINARY_TYPE__KALLSYMS:
139         case DSO_BINARY_TYPE__GUEST_KALLSYMS:
140         case DSO_BINARY_TYPE__JAVA_JIT:
141         case DSO_BINARY_TYPE__NOT_FOUND:
142                 ret = -1;
143                 break;
144         }
145
146         return ret;
147 }
148
149 static const struct {
150         const char *fmt;
151         int (*decompress)(const char *input, int output);
152 } compressions[] = {
153 #ifdef HAVE_ZLIB_SUPPORT
154         { "gz", gzip_decompress_to_file },
155 #endif
156 #ifdef HAVE_LZMA_SUPPORT
157         { "xz", lzma_decompress_to_file },
158 #endif
159         { NULL, NULL },
160 };
161
162 bool is_supported_compression(const char *ext)
163 {
164         unsigned i;
165
166         for (i = 0; compressions[i].fmt; i++) {
167                 if (!strcmp(ext, compressions[i].fmt))
168                         return true;
169         }
170         return false;
171 }
172
173 bool is_kernel_module(const char *pathname, int cpumode)
174 {
175         struct kmod_path m;
176         int mode = cpumode & PERF_RECORD_MISC_CPUMODE_MASK;
177
178         WARN_ONCE(mode != cpumode,
179                   "Internal error: passing unmasked cpumode (%x) to is_kernel_module",
180                   cpumode);
181
182         switch (mode) {
183         case PERF_RECORD_MISC_USER:
184         case PERF_RECORD_MISC_HYPERVISOR:
185         case PERF_RECORD_MISC_GUEST_USER:
186                 return false;
187         /* Treat PERF_RECORD_MISC_CPUMODE_UNKNOWN as kernel */
188         default:
189                 if (kmod_path__parse(&m, pathname)) {
190                         pr_err("Failed to check whether %s is a kernel module or not. Assume it is.",
191                                         pathname);
192                         return true;
193                 }
194         }
195
196         return m.kmod;
197 }
198
199 bool decompress_to_file(const char *ext, const char *filename, int output_fd)
200 {
201         unsigned i;
202
203         for (i = 0; compressions[i].fmt; i++) {
204                 if (!strcmp(ext, compressions[i].fmt))
205                         return !compressions[i].decompress(filename,
206                                                            output_fd);
207         }
208         return false;
209 }
210
211 bool dso__needs_decompress(struct dso *dso)
212 {
213         return dso->symtab_type == DSO_BINARY_TYPE__SYSTEM_PATH_KMODULE_COMP ||
214                 dso->symtab_type == DSO_BINARY_TYPE__GUEST_KMODULE_COMP;
215 }
216
217 /*
218  * Parses kernel module specified in @path and updates
219  * @m argument like:
220  *
221  *    @comp - true if @path contains supported compression suffix,
222  *            false otherwise
223  *    @kmod - true if @path contains '.ko' suffix in right position,
224  *            false otherwise
225  *    @name - if (@alloc_name && @kmod) is true, it contains strdup-ed base name
226  *            of the kernel module without suffixes, otherwise strudup-ed
227  *            base name of @path
228  *    @ext  - if (@alloc_ext && @comp) is true, it contains strdup-ed string
229  *            the compression suffix
230  *
231  * Returns 0 if there's no strdup error, -ENOMEM otherwise.
232  */
233 int __kmod_path__parse(struct kmod_path *m, const char *path,
234                        bool alloc_name, bool alloc_ext)
235 {
236         const char *name = strrchr(path, '/');
237         const char *ext  = strrchr(path, '.');
238         bool is_simple_name = false;
239
240         memset(m, 0x0, sizeof(*m));
241         name = name ? name + 1 : path;
242
243         /*
244          * '.' is also a valid character for module name. For example:
245          * [aaa.bbb] is a valid module name. '[' should have higher
246          * priority than '.ko' suffix.
247          *
248          * The kernel names are from machine__mmap_name. Such
249          * name should belong to kernel itself, not kernel module.
250          */
251         if (name[0] == '[') {
252                 is_simple_name = true;
253                 if ((strncmp(name, "[kernel.kallsyms]", 17) == 0) ||
254                     (strncmp(name, "[guest.kernel.kallsyms", 22) == 0) ||
255                     (strncmp(name, "[vdso]", 6) == 0) ||
256                     (strncmp(name, "[vsyscall]", 10) == 0)) {
257                         m->kmod = false;
258
259                 } else
260                         m->kmod = true;
261         }
262
263         /* No extension, just return name. */
264         if ((ext == NULL) || is_simple_name) {
265                 if (alloc_name) {
266                         m->name = strdup(name);
267                         return m->name ? 0 : -ENOMEM;
268                 }
269                 return 0;
270         }
271
272         if (is_supported_compression(ext + 1)) {
273                 m->comp = true;
274                 ext -= 3;
275         }
276
277         /* Check .ko extension only if there's enough name left. */
278         if (ext > name)
279                 m->kmod = !strncmp(ext, ".ko", 3);
280
281         if (alloc_name) {
282                 if (m->kmod) {
283                         if (asprintf(&m->name, "[%.*s]", (int) (ext - name), name) == -1)
284                                 return -ENOMEM;
285                 } else {
286                         if (asprintf(&m->name, "%s", name) == -1)
287                                 return -ENOMEM;
288                 }
289
290                 strxfrchar(m->name, '-', '_');
291         }
292
293         if (alloc_ext && m->comp) {
294                 m->ext = strdup(ext + 4);
295                 if (!m->ext) {
296                         free((void *) m->name);
297                         return -ENOMEM;
298                 }
299         }
300
301         return 0;
302 }
303
304 /*
305  * Global list of open DSOs and the counter.
306  */
307 static LIST_HEAD(dso__data_open);
308 static long dso__data_open_cnt;
309 static pthread_mutex_t dso__data_open_lock = PTHREAD_MUTEX_INITIALIZER;
310
311 static void dso__list_add(struct dso *dso)
312 {
313         list_add_tail(&dso->data.open_entry, &dso__data_open);
314         dso__data_open_cnt++;
315 }
316
317 static void dso__list_del(struct dso *dso)
318 {
319         list_del(&dso->data.open_entry);
320         WARN_ONCE(dso__data_open_cnt <= 0,
321                   "DSO data fd counter out of bounds.");
322         dso__data_open_cnt--;
323 }
324
325 static void close_first_dso(void);
326
327 static int do_open(char *name)
328 {
329         int fd;
330         char sbuf[STRERR_BUFSIZE];
331
332         do {
333                 fd = open(name, O_RDONLY);
334                 if (fd >= 0)
335                         return fd;
336
337                 pr_debug("dso open failed: %s\n",
338                          strerror_r(errno, sbuf, sizeof(sbuf)));
339                 if (!dso__data_open_cnt || errno != EMFILE)
340                         break;
341
342                 close_first_dso();
343         } while (1);
344
345         return -1;
346 }
347
348 static int __open_dso(struct dso *dso, struct machine *machine)
349 {
350         int fd;
351         char *root_dir = (char *)"";
352         char *name = malloc(PATH_MAX);
353
354         if (!name)
355                 return -ENOMEM;
356
357         if (machine)
358                 root_dir = machine->root_dir;
359
360         if (dso__read_binary_type_filename(dso, dso->binary_type,
361                                             root_dir, name, PATH_MAX)) {
362                 free(name);
363                 return -EINVAL;
364         }
365
366         fd = do_open(name);
367         free(name);
368         return fd;
369 }
370
371 static void check_data_close(void);
372
373 /**
374  * dso_close - Open DSO data file
375  * @dso: dso object
376  *
377  * Open @dso's data file descriptor and updates
378  * list/count of open DSO objects.
379  */
380 static int open_dso(struct dso *dso, struct machine *machine)
381 {
382         int fd = __open_dso(dso, machine);
383
384         if (fd >= 0) {
385                 dso__list_add(dso);
386                 /*
387                  * Check if we crossed the allowed number
388                  * of opened DSOs and close one if needed.
389                  */
390                 check_data_close();
391         }
392
393         return fd;
394 }
395
396 static void close_data_fd(struct dso *dso)
397 {
398         if (dso->data.fd >= 0) {
399                 close(dso->data.fd);
400                 dso->data.fd = -1;
401                 dso->data.file_size = 0;
402                 dso__list_del(dso);
403         }
404 }
405
406 /**
407  * dso_close - Close DSO data file
408  * @dso: dso object
409  *
410  * Close @dso's data file descriptor and updates
411  * list/count of open DSO objects.
412  */
413 static void close_dso(struct dso *dso)
414 {
415         close_data_fd(dso);
416 }
417
418 static void close_first_dso(void)
419 {
420         struct dso *dso;
421
422         dso = list_first_entry(&dso__data_open, struct dso, data.open_entry);
423         close_dso(dso);
424 }
425
426 static rlim_t get_fd_limit(void)
427 {
428         struct rlimit l;
429         rlim_t limit = 0;
430
431         /* Allow half of the current open fd limit. */
432         if (getrlimit(RLIMIT_NOFILE, &l) == 0) {
433                 if (l.rlim_cur == RLIM_INFINITY)
434                         limit = l.rlim_cur;
435                 else
436                         limit = l.rlim_cur / 2;
437         } else {
438                 pr_err("failed to get fd limit\n");
439                 limit = 1;
440         }
441
442         return limit;
443 }
444
445 static bool may_cache_fd(void)
446 {
447         static rlim_t limit;
448
449         if (!limit)
450                 limit = get_fd_limit();
451
452         if (limit == RLIM_INFINITY)
453                 return true;
454
455         return limit > (rlim_t) dso__data_open_cnt;
456 }
457
458 /*
459  * Check and close LRU dso if we crossed allowed limit
460  * for opened dso file descriptors. The limit is half
461  * of the RLIMIT_NOFILE files opened.
462 */
463 static void check_data_close(void)
464 {
465         bool cache_fd = may_cache_fd();
466
467         if (!cache_fd)
468                 close_first_dso();
469 }
470
471 /**
472  * dso__data_close - Close DSO data file
473  * @dso: dso object
474  *
475  * External interface to close @dso's data file descriptor.
476  */
477 void dso__data_close(struct dso *dso)
478 {
479         pthread_mutex_lock(&dso__data_open_lock);
480         close_dso(dso);
481         pthread_mutex_unlock(&dso__data_open_lock);
482 }
483
484 static void try_to_open_dso(struct dso *dso, struct machine *machine)
485 {
486         enum dso_binary_type binary_type_data[] = {
487                 DSO_BINARY_TYPE__BUILD_ID_CACHE,
488                 DSO_BINARY_TYPE__SYSTEM_PATH_DSO,
489                 DSO_BINARY_TYPE__NOT_FOUND,
490         };
491         int i = 0;
492
493         if (dso->data.fd >= 0)
494                 return;
495
496         if (dso->binary_type != DSO_BINARY_TYPE__NOT_FOUND) {
497                 dso->data.fd = open_dso(dso, machine);
498                 goto out;
499         }
500
501         do {
502                 dso->binary_type = binary_type_data[i++];
503
504                 dso->data.fd = open_dso(dso, machine);
505                 if (dso->data.fd >= 0)
506                         goto out;
507
508         } while (dso->binary_type != DSO_BINARY_TYPE__NOT_FOUND);
509 out:
510         if (dso->data.fd >= 0)
511                 dso->data.status = DSO_DATA_STATUS_OK;
512         else
513                 dso->data.status = DSO_DATA_STATUS_ERROR;
514 }
515
516 /**
517  * dso__data_get_fd - Get dso's data file descriptor
518  * @dso: dso object
519  * @machine: machine object
520  *
521  * External interface to find dso's file, open it and
522  * returns file descriptor.  It should be paired with
523  * dso__data_put_fd() if it returns non-negative value.
524  */
525 int dso__data_get_fd(struct dso *dso, struct machine *machine)
526 {
527         if (dso->data.status == DSO_DATA_STATUS_ERROR)
528                 return -1;
529
530         if (pthread_mutex_lock(&dso__data_open_lock) < 0)
531                 return -1;
532
533         try_to_open_dso(dso, machine);
534
535         if (dso->data.fd < 0)
536                 pthread_mutex_unlock(&dso__data_open_lock);
537
538         return dso->data.fd;
539 }
540
541 void dso__data_put_fd(struct dso *dso __maybe_unused)
542 {
543         pthread_mutex_unlock(&dso__data_open_lock);
544 }
545
546 bool dso__data_status_seen(struct dso *dso, enum dso_data_status_seen by)
547 {
548         u32 flag = 1 << by;
549
550         if (dso->data.status_seen & flag)
551                 return true;
552
553         dso->data.status_seen |= flag;
554
555         return false;
556 }
557
558 static void
559 dso_cache__free(struct dso *dso)
560 {
561         struct rb_root *root = &dso->data.cache;
562         struct rb_node *next = rb_first(root);
563
564         pthread_mutex_lock(&dso->lock);
565         while (next) {
566                 struct dso_cache *cache;
567
568                 cache = rb_entry(next, struct dso_cache, rb_node);
569                 next = rb_next(&cache->rb_node);
570                 rb_erase(&cache->rb_node, root);
571                 free(cache);
572         }
573         pthread_mutex_unlock(&dso->lock);
574 }
575
576 static struct dso_cache *dso_cache__find(struct dso *dso, u64 offset)
577 {
578         const struct rb_root *root = &dso->data.cache;
579         struct rb_node * const *p = &root->rb_node;
580         const struct rb_node *parent = NULL;
581         struct dso_cache *cache;
582
583         while (*p != NULL) {
584                 u64 end;
585
586                 parent = *p;
587                 cache = rb_entry(parent, struct dso_cache, rb_node);
588                 end = cache->offset + DSO__DATA_CACHE_SIZE;
589
590                 if (offset < cache->offset)
591                         p = &(*p)->rb_left;
592                 else if (offset >= end)
593                         p = &(*p)->rb_right;
594                 else
595                         return cache;
596         }
597
598         return NULL;
599 }
600
601 static struct dso_cache *
602 dso_cache__insert(struct dso *dso, struct dso_cache *new)
603 {
604         struct rb_root *root = &dso->data.cache;
605         struct rb_node **p = &root->rb_node;
606         struct rb_node *parent = NULL;
607         struct dso_cache *cache;
608         u64 offset = new->offset;
609
610         pthread_mutex_lock(&dso->lock);
611         while (*p != NULL) {
612                 u64 end;
613
614                 parent = *p;
615                 cache = rb_entry(parent, struct dso_cache, rb_node);
616                 end = cache->offset + DSO__DATA_CACHE_SIZE;
617
618                 if (offset < cache->offset)
619                         p = &(*p)->rb_left;
620                 else if (offset >= end)
621                         p = &(*p)->rb_right;
622                 else
623                         goto out;
624         }
625
626         rb_link_node(&new->rb_node, parent, p);
627         rb_insert_color(&new->rb_node, root);
628
629         cache = NULL;
630 out:
631         pthread_mutex_unlock(&dso->lock);
632         return cache;
633 }
634
635 static ssize_t
636 dso_cache__memcpy(struct dso_cache *cache, u64 offset,
637                   u8 *data, u64 size)
638 {
639         u64 cache_offset = offset - cache->offset;
640         u64 cache_size   = min(cache->size - cache_offset, size);
641
642         memcpy(data, cache->data + cache_offset, cache_size);
643         return cache_size;
644 }
645
646 static ssize_t
647 dso_cache__read(struct dso *dso, struct machine *machine,
648                 u64 offset, u8 *data, ssize_t size)
649 {
650         struct dso_cache *cache;
651         struct dso_cache *old;
652         ssize_t ret;
653
654         do {
655                 u64 cache_offset;
656
657                 cache = zalloc(sizeof(*cache) + DSO__DATA_CACHE_SIZE);
658                 if (!cache)
659                         return -ENOMEM;
660
661                 pthread_mutex_lock(&dso__data_open_lock);
662
663                 /*
664                  * dso->data.fd might be closed if other thread opened another
665                  * file (dso) due to open file limit (RLIMIT_NOFILE).
666                  */
667                 try_to_open_dso(dso, machine);
668
669                 if (dso->data.fd < 0) {
670                         ret = -errno;
671                         dso->data.status = DSO_DATA_STATUS_ERROR;
672                         break;
673                 }
674
675                 cache_offset = offset & DSO__DATA_CACHE_MASK;
676
677                 ret = pread(dso->data.fd, cache->data, DSO__DATA_CACHE_SIZE, cache_offset);
678                 if (ret <= 0)
679                         break;
680
681                 cache->offset = cache_offset;
682                 cache->size   = ret;
683         } while (0);
684
685         pthread_mutex_unlock(&dso__data_open_lock);
686
687         if (ret > 0) {
688                 old = dso_cache__insert(dso, cache);
689                 if (old) {
690                         /* we lose the race */
691                         free(cache);
692                         cache = old;
693                 }
694
695                 ret = dso_cache__memcpy(cache, offset, data, size);
696         }
697
698         if (ret <= 0)
699                 free(cache);
700
701         return ret;
702 }
703
704 static ssize_t dso_cache_read(struct dso *dso, struct machine *machine,
705                               u64 offset, u8 *data, ssize_t size)
706 {
707         struct dso_cache *cache;
708
709         cache = dso_cache__find(dso, offset);
710         if (cache)
711                 return dso_cache__memcpy(cache, offset, data, size);
712         else
713                 return dso_cache__read(dso, machine, offset, data, size);
714 }
715
716 /*
717  * Reads and caches dso data DSO__DATA_CACHE_SIZE size chunks
718  * in the rb_tree. Any read to already cached data is served
719  * by cached data.
720  */
721 static ssize_t cached_read(struct dso *dso, struct machine *machine,
722                            u64 offset, u8 *data, ssize_t size)
723 {
724         ssize_t r = 0;
725         u8 *p = data;
726
727         do {
728                 ssize_t ret;
729
730                 ret = dso_cache_read(dso, machine, offset, p, size);
731                 if (ret < 0)
732                         return ret;
733
734                 /* Reached EOF, return what we have. */
735                 if (!ret)
736                         break;
737
738                 BUG_ON(ret > size);
739
740                 r      += ret;
741                 p      += ret;
742                 offset += ret;
743                 size   -= ret;
744
745         } while (size);
746
747         return r;
748 }
749
750 static int data_file_size(struct dso *dso, struct machine *machine)
751 {
752         int ret = 0;
753         struct stat st;
754         char sbuf[STRERR_BUFSIZE];
755
756         if (dso->data.file_size)
757                 return 0;
758
759         if (dso->data.status == DSO_DATA_STATUS_ERROR)
760                 return -1;
761
762         pthread_mutex_lock(&dso__data_open_lock);
763
764         /*
765          * dso->data.fd might be closed if other thread opened another
766          * file (dso) due to open file limit (RLIMIT_NOFILE).
767          */
768         try_to_open_dso(dso, machine);
769
770         if (dso->data.fd < 0) {
771                 ret = -errno;
772                 dso->data.status = DSO_DATA_STATUS_ERROR;
773                 goto out;
774         }
775
776         if (fstat(dso->data.fd, &st) < 0) {
777                 ret = -errno;
778                 pr_err("dso cache fstat failed: %s\n",
779                        strerror_r(errno, sbuf, sizeof(sbuf)));
780                 dso->data.status = DSO_DATA_STATUS_ERROR;
781                 goto out;
782         }
783         dso->data.file_size = st.st_size;
784
785 out:
786         pthread_mutex_unlock(&dso__data_open_lock);
787         return ret;
788 }
789
790 /**
791  * dso__data_size - Return dso data size
792  * @dso: dso object
793  * @machine: machine object
794  *
795  * Return: dso data size
796  */
797 off_t dso__data_size(struct dso *dso, struct machine *machine)
798 {
799         if (data_file_size(dso, machine))
800                 return -1;
801
802         /* For now just estimate dso data size is close to file size */
803         return dso->data.file_size;
804 }
805
806 static ssize_t data_read_offset(struct dso *dso, struct machine *machine,
807                                 u64 offset, u8 *data, ssize_t size)
808 {
809         if (data_file_size(dso, machine))
810                 return -1;
811
812         /* Check the offset sanity. */
813         if (offset > dso->data.file_size)
814                 return -1;
815
816         if (offset + size < offset)
817                 return -1;
818
819         return cached_read(dso, machine, offset, data, size);
820 }
821
822 /**
823  * dso__data_read_offset - Read data from dso file offset
824  * @dso: dso object
825  * @machine: machine object
826  * @offset: file offset
827  * @data: buffer to store data
828  * @size: size of the @data buffer
829  *
830  * External interface to read data from dso file offset. Open
831  * dso data file and use cached_read to get the data.
832  */
833 ssize_t dso__data_read_offset(struct dso *dso, struct machine *machine,
834                               u64 offset, u8 *data, ssize_t size)
835 {
836         if (dso->data.status == DSO_DATA_STATUS_ERROR)
837                 return -1;
838
839         return data_read_offset(dso, machine, offset, data, size);
840 }
841
842 /**
843  * dso__data_read_addr - Read data from dso address
844  * @dso: dso object
845  * @machine: machine object
846  * @add: virtual memory address
847  * @data: buffer to store data
848  * @size: size of the @data buffer
849  *
850  * External interface to read data from dso address.
851  */
852 ssize_t dso__data_read_addr(struct dso *dso, struct map *map,
853                             struct machine *machine, u64 addr,
854                             u8 *data, ssize_t size)
855 {
856         u64 offset = map->map_ip(map, addr);
857         return dso__data_read_offset(dso, machine, offset, data, size);
858 }
859
860 struct map *dso__new_map(const char *name)
861 {
862         struct map *map = NULL;
863         struct dso *dso = dso__new(name);
864
865         if (dso)
866                 map = map__new2(0, dso, MAP__FUNCTION);
867
868         return map;
869 }
870
871 struct dso *machine__findnew_kernel(struct machine *machine, const char *name,
872                                     const char *short_name, int dso_type)
873 {
874         /*
875          * The kernel dso could be created by build_id processing.
876          */
877         struct dso *dso = machine__findnew_dso(machine, name);
878
879         /*
880          * We need to run this in all cases, since during the build_id
881          * processing we had no idea this was the kernel dso.
882          */
883         if (dso != NULL) {
884                 dso__set_short_name(dso, short_name, false);
885                 dso->kernel = dso_type;
886         }
887
888         return dso;
889 }
890
891 /*
892  * Find a matching entry and/or link current entry to RB tree.
893  * Either one of the dso or name parameter must be non-NULL or the
894  * function will not work.
895  */
896 static struct dso *__dso__findlink_by_longname(struct rb_root *root,
897                                                struct dso *dso, const char *name)
898 {
899         struct rb_node **p = &root->rb_node;
900         struct rb_node  *parent = NULL;
901
902         if (!name)
903                 name = dso->long_name;
904         /*
905          * Find node with the matching name
906          */
907         while (*p) {
908                 struct dso *this = rb_entry(*p, struct dso, rb_node);
909                 int rc = strcmp(name, this->long_name);
910
911                 parent = *p;
912                 if (rc == 0) {
913                         /*
914                          * In case the new DSO is a duplicate of an existing
915                          * one, print an one-time warning & put the new entry
916                          * at the end of the list of duplicates.
917                          */
918                         if (!dso || (dso == this))
919                                 return this;    /* Find matching dso */
920                         /*
921                          * The core kernel DSOs may have duplicated long name.
922                          * In this case, the short name should be different.
923                          * Comparing the short names to differentiate the DSOs.
924                          */
925                         rc = strcmp(dso->short_name, this->short_name);
926                         if (rc == 0) {
927                                 pr_err("Duplicated dso name: %s\n", name);
928                                 return NULL;
929                         }
930                 }
931                 if (rc < 0)
932                         p = &parent->rb_left;
933                 else
934                         p = &parent->rb_right;
935         }
936         if (dso) {
937                 /* Add new node and rebalance tree */
938                 rb_link_node(&dso->rb_node, parent, p);
939                 rb_insert_color(&dso->rb_node, root);
940                 dso->root = root;
941         }
942         return NULL;
943 }
944
945 static inline struct dso *__dso__find_by_longname(struct rb_root *root,
946                                                   const char *name)
947 {
948         return __dso__findlink_by_longname(root, NULL, name);
949 }
950
951 void dso__set_long_name(struct dso *dso, const char *name, bool name_allocated)
952 {
953         struct rb_root *root = dso->root;
954
955         if (name == NULL)
956                 return;
957
958         if (dso->long_name_allocated)
959                 free((char *)dso->long_name);
960
961         if (root) {
962                 rb_erase(&dso->rb_node, root);
963                 /*
964                  * __dso__findlink_by_longname() isn't guaranteed to add it
965                  * back, so a clean removal is required here.
966                  */
967                 RB_CLEAR_NODE(&dso->rb_node);
968                 dso->root = NULL;
969         }
970
971         dso->long_name           = name;
972         dso->long_name_len       = strlen(name);
973         dso->long_name_allocated = name_allocated;
974
975         if (root)
976                 __dso__findlink_by_longname(root, dso, NULL);
977 }
978
979 void dso__set_short_name(struct dso *dso, const char *name, bool name_allocated)
980 {
981         if (name == NULL)
982                 return;
983
984         if (dso->short_name_allocated)
985                 free((char *)dso->short_name);
986
987         dso->short_name           = name;
988         dso->short_name_len       = strlen(name);
989         dso->short_name_allocated = name_allocated;
990 }
991
992 static void dso__set_basename(struct dso *dso)
993 {
994        /*
995         * basename() may modify path buffer, so we must pass
996         * a copy.
997         */
998        char *base, *lname = strdup(dso->long_name);
999
1000        if (!lname)
1001                return;
1002
1003        /*
1004         * basename() may return a pointer to internal
1005         * storage which is reused in subsequent calls
1006         * so copy the result.
1007         */
1008        base = strdup(basename(lname));
1009
1010        free(lname);
1011
1012        if (!base)
1013                return;
1014
1015        dso__set_short_name(dso, base, true);
1016 }
1017
1018 int dso__name_len(const struct dso *dso)
1019 {
1020         if (!dso)
1021                 return strlen("[unknown]");
1022         if (verbose)
1023                 return dso->long_name_len;
1024
1025         return dso->short_name_len;
1026 }
1027
1028 bool dso__loaded(const struct dso *dso, enum map_type type)
1029 {
1030         return dso->loaded & (1 << type);
1031 }
1032
1033 bool dso__sorted_by_name(const struct dso *dso, enum map_type type)
1034 {
1035         return dso->sorted_by_name & (1 << type);
1036 }
1037
1038 void dso__set_sorted_by_name(struct dso *dso, enum map_type type)
1039 {
1040         dso->sorted_by_name |= (1 << type);
1041 }
1042
1043 struct dso *dso__new(const char *name)
1044 {
1045         struct dso *dso = calloc(1, sizeof(*dso) + strlen(name) + 1);
1046
1047         if (dso != NULL) {
1048                 int i;
1049                 strcpy(dso->name, name);
1050                 dso__set_long_name(dso, dso->name, false);
1051                 dso__set_short_name(dso, dso->name, false);
1052                 for (i = 0; i < MAP__NR_TYPES; ++i)
1053                         dso->symbols[i] = dso->symbol_names[i] = RB_ROOT;
1054                 dso->data.cache = RB_ROOT;
1055                 dso->data.fd = -1;
1056                 dso->data.status = DSO_DATA_STATUS_UNKNOWN;
1057                 dso->symtab_type = DSO_BINARY_TYPE__NOT_FOUND;
1058                 dso->binary_type = DSO_BINARY_TYPE__NOT_FOUND;
1059                 dso->is_64_bit = (sizeof(void *) == 8);
1060                 dso->loaded = 0;
1061                 dso->rel = 0;
1062                 dso->sorted_by_name = 0;
1063                 dso->has_build_id = 0;
1064                 dso->has_srcline = 1;
1065                 dso->a2l_fails = 1;
1066                 dso->kernel = DSO_TYPE_USER;
1067                 dso->needs_swap = DSO_SWAP__UNSET;
1068                 RB_CLEAR_NODE(&dso->rb_node);
1069                 dso->root = NULL;
1070                 INIT_LIST_HEAD(&dso->node);
1071                 INIT_LIST_HEAD(&dso->data.open_entry);
1072                 pthread_mutex_init(&dso->lock, NULL);
1073                 atomic_set(&dso->refcnt, 1);
1074         }
1075
1076         return dso;
1077 }
1078
1079 void dso__delete(struct dso *dso)
1080 {
1081         int i;
1082
1083         if (!RB_EMPTY_NODE(&dso->rb_node))
1084                 pr_err("DSO %s is still in rbtree when being deleted!\n",
1085                        dso->long_name);
1086         for (i = 0; i < MAP__NR_TYPES; ++i)
1087                 symbols__delete(&dso->symbols[i]);
1088
1089         if (dso->short_name_allocated) {
1090                 zfree((char **)&dso->short_name);
1091                 dso->short_name_allocated = false;
1092         }
1093
1094         if (dso->long_name_allocated) {
1095                 zfree((char **)&dso->long_name);
1096                 dso->long_name_allocated = false;
1097         }
1098
1099         dso__data_close(dso);
1100         auxtrace_cache__free(dso->auxtrace_cache);
1101         dso_cache__free(dso);
1102         dso__free_a2l(dso);
1103         zfree(&dso->symsrc_filename);
1104         pthread_mutex_destroy(&dso->lock);
1105         free(dso);
1106 }
1107
1108 struct dso *dso__get(struct dso *dso)
1109 {
1110         if (dso)
1111                 atomic_inc(&dso->refcnt);
1112         return dso;
1113 }
1114
1115 void dso__put(struct dso *dso)
1116 {
1117         if (dso && atomic_dec_and_test(&dso->refcnt))
1118                 dso__delete(dso);
1119 }
1120
1121 void dso__set_build_id(struct dso *dso, void *build_id)
1122 {
1123         memcpy(dso->build_id, build_id, sizeof(dso->build_id));
1124         dso->has_build_id = 1;
1125 }
1126
1127 bool dso__build_id_equal(const struct dso *dso, u8 *build_id)
1128 {
1129         return memcmp(dso->build_id, build_id, sizeof(dso->build_id)) == 0;
1130 }
1131
1132 void dso__read_running_kernel_build_id(struct dso *dso, struct machine *machine)
1133 {
1134         char path[PATH_MAX];
1135
1136         if (machine__is_default_guest(machine))
1137                 return;
1138         sprintf(path, "%s/sys/kernel/notes", machine->root_dir);
1139         if (sysfs__read_build_id(path, dso->build_id,
1140                                  sizeof(dso->build_id)) == 0)
1141                 dso->has_build_id = true;
1142 }
1143
1144 int dso__kernel_module_get_build_id(struct dso *dso,
1145                                     const char *root_dir)
1146 {
1147         char filename[PATH_MAX];
1148         /*
1149          * kernel module short names are of the form "[module]" and
1150          * we need just "module" here.
1151          */
1152         const char *name = dso->short_name + 1;
1153
1154         snprintf(filename, sizeof(filename),
1155                  "%s/sys/module/%.*s/notes/.note.gnu.build-id",
1156                  root_dir, (int)strlen(name) - 1, name);
1157
1158         if (sysfs__read_build_id(filename, dso->build_id,
1159                                  sizeof(dso->build_id)) == 0)
1160                 dso->has_build_id = true;
1161
1162         return 0;
1163 }
1164
1165 bool __dsos__read_build_ids(struct list_head *head, bool with_hits)
1166 {
1167         bool have_build_id = false;
1168         struct dso *pos;
1169
1170         list_for_each_entry(pos, head, node) {
1171                 if (with_hits && !pos->hit && !dso__is_vdso(pos))
1172                         continue;
1173                 if (pos->has_build_id) {
1174                         have_build_id = true;
1175                         continue;
1176                 }
1177                 if (filename__read_build_id(pos->long_name, pos->build_id,
1178                                             sizeof(pos->build_id)) > 0) {
1179                         have_build_id     = true;
1180                         pos->has_build_id = true;
1181                 }
1182         }
1183
1184         return have_build_id;
1185 }
1186
1187 void __dsos__add(struct dsos *dsos, struct dso *dso)
1188 {
1189         list_add_tail(&dso->node, &dsos->head);
1190         __dso__findlink_by_longname(&dsos->root, dso, NULL);
1191         /*
1192          * It is now in the linked list, grab a reference, then garbage collect
1193          * this when needing memory, by looking at LRU dso instances in the
1194          * list with atomic_read(&dso->refcnt) == 1, i.e. no references
1195          * anywhere besides the one for the list, do, under a lock for the
1196          * list: remove it from the list, then a dso__put(), that probably will
1197          * be the last and will then call dso__delete(), end of life.
1198          *
1199          * That, or at the end of the 'struct machine' lifetime, when all
1200          * 'struct dso' instances will be removed from the list, in
1201          * dsos__exit(), if they have no other reference from some other data
1202          * structure.
1203          *
1204          * E.g.: after processing a 'perf.data' file and storing references
1205          * to objects instantiated while processing events, we will have
1206          * references to the 'thread', 'map', 'dso' structs all from 'struct
1207          * hist_entry' instances, but we may not need anything not referenced,
1208          * so we might as well call machines__exit()/machines__delete() and
1209          * garbage collect it.
1210          */
1211         dso__get(dso);
1212 }
1213
1214 void dsos__add(struct dsos *dsos, struct dso *dso)
1215 {
1216         pthread_rwlock_wrlock(&dsos->lock);
1217         __dsos__add(dsos, dso);
1218         pthread_rwlock_unlock(&dsos->lock);
1219 }
1220
1221 struct dso *__dsos__find(struct dsos *dsos, const char *name, bool cmp_short)
1222 {
1223         struct dso *pos;
1224
1225         if (cmp_short) {
1226                 list_for_each_entry(pos, &dsos->head, node)
1227                         if (strcmp(pos->short_name, name) == 0)
1228                                 return pos;
1229                 return NULL;
1230         }
1231         return __dso__find_by_longname(&dsos->root, name);
1232 }
1233
1234 struct dso *dsos__find(struct dsos *dsos, const char *name, bool cmp_short)
1235 {
1236         struct dso *dso;
1237         pthread_rwlock_rdlock(&dsos->lock);
1238         dso = __dsos__find(dsos, name, cmp_short);
1239         pthread_rwlock_unlock(&dsos->lock);
1240         return dso;
1241 }
1242
1243 struct dso *__dsos__addnew(struct dsos *dsos, const char *name)
1244 {
1245         struct dso *dso = dso__new(name);
1246
1247         if (dso != NULL) {
1248                 __dsos__add(dsos, dso);
1249                 dso__set_basename(dso);
1250                 /* Put dso here because __dsos_add already got it */
1251                 dso__put(dso);
1252         }
1253         return dso;
1254 }
1255
1256 struct dso *__dsos__findnew(struct dsos *dsos, const char *name)
1257 {
1258         struct dso *dso = __dsos__find(dsos, name, false);
1259
1260         return dso ? dso : __dsos__addnew(dsos, name);
1261 }
1262
1263 struct dso *dsos__findnew(struct dsos *dsos, const char *name)
1264 {
1265         struct dso *dso;
1266         pthread_rwlock_wrlock(&dsos->lock);
1267         dso = dso__get(__dsos__findnew(dsos, name));
1268         pthread_rwlock_unlock(&dsos->lock);
1269         return dso;
1270 }
1271
1272 size_t __dsos__fprintf_buildid(struct list_head *head, FILE *fp,
1273                                bool (skip)(struct dso *dso, int parm), int parm)
1274 {
1275         struct dso *pos;
1276         size_t ret = 0;
1277
1278         list_for_each_entry(pos, head, node) {
1279                 if (skip && skip(pos, parm))
1280                         continue;
1281                 ret += dso__fprintf_buildid(pos, fp);
1282                 ret += fprintf(fp, " %s\n", pos->long_name);
1283         }
1284         return ret;
1285 }
1286
1287 size_t __dsos__fprintf(struct list_head *head, FILE *fp)
1288 {
1289         struct dso *pos;
1290         size_t ret = 0;
1291
1292         list_for_each_entry(pos, head, node) {
1293                 int i;
1294                 for (i = 0; i < MAP__NR_TYPES; ++i)
1295                         ret += dso__fprintf(pos, i, fp);
1296         }
1297
1298         return ret;
1299 }
1300
1301 size_t dso__fprintf_buildid(struct dso *dso, FILE *fp)
1302 {
1303         char sbuild_id[SBUILD_ID_SIZE];
1304
1305         build_id__sprintf(dso->build_id, sizeof(dso->build_id), sbuild_id);
1306         return fprintf(fp, "%s", sbuild_id);
1307 }
1308
1309 size_t dso__fprintf(struct dso *dso, enum map_type type, FILE *fp)
1310 {
1311         struct rb_node *nd;
1312         size_t ret = fprintf(fp, "dso: %s (", dso->short_name);
1313
1314         if (dso->short_name != dso->long_name)
1315                 ret += fprintf(fp, "%s, ", dso->long_name);
1316         ret += fprintf(fp, "%s, %sloaded, ", map_type__name[type],
1317                        dso__loaded(dso, type) ? "" : "NOT ");
1318         ret += dso__fprintf_buildid(dso, fp);
1319         ret += fprintf(fp, ")\n");
1320         for (nd = rb_first(&dso->symbols[type]); nd; nd = rb_next(nd)) {
1321                 struct symbol *pos = rb_entry(nd, struct symbol, rb_node);
1322                 ret += symbol__fprintf(pos, fp);
1323         }
1324
1325         return ret;
1326 }
1327
1328 enum dso_type dso__type(struct dso *dso, struct machine *machine)
1329 {
1330         int fd;
1331         enum dso_type type = DSO__TYPE_UNKNOWN;
1332
1333         fd = dso__data_get_fd(dso, machine);
1334         if (fd >= 0) {
1335                 type = dso__type_fd(fd);
1336                 dso__data_put_fd(dso);
1337         }
1338
1339         return type;
1340 }
1341
1342 int dso__strerror_load(struct dso *dso, char *buf, size_t buflen)
1343 {
1344         int idx, errnum = dso->load_errno;
1345         /*
1346          * This must have a same ordering as the enum dso_load_errno.
1347          */
1348         static const char *dso_load__error_str[] = {
1349         "Internal tools/perf/ library error",
1350         "Invalid ELF file",
1351         "Can not read build id",
1352         "Mismatching build id",
1353         "Decompression failure",
1354         };
1355
1356         BUG_ON(buflen == 0);
1357
1358         if (errnum >= 0) {
1359                 const char *err = strerror_r(errnum, buf, buflen);
1360
1361                 if (err != buf)
1362                         scnprintf(buf, buflen, "%s", err);
1363
1364                 return 0;
1365         }
1366
1367         if (errnum <  __DSO_LOAD_ERRNO__START || errnum >= __DSO_LOAD_ERRNO__END)
1368                 return -1;
1369
1370         idx = errnum - __DSO_LOAD_ERRNO__START;
1371         scnprintf(buf, buflen, "%s", dso_load__error_str[idx]);
1372         return 0;
1373 }