]> Git Repo - linux.git/blob - drivers/powercap/intel_rapl_common.c
Linux 6.14-rc3
[linux.git] / drivers / powercap / intel_rapl_common.c
1 // SPDX-License-Identifier: GPL-2.0-only
2 /*
3  * Common code for Intel Running Average Power Limit (RAPL) support.
4  * Copyright (c) 2019, Intel Corporation.
5  */
6 #define pr_fmt(fmt) KBUILD_MODNAME ": " fmt
7
8 #include <linux/bitmap.h>
9 #include <linux/cleanup.h>
10 #include <linux/cpu.h>
11 #include <linux/delay.h>
12 #include <linux/device.h>
13 #include <linux/intel_rapl.h>
14 #include <linux/kernel.h>
15 #include <linux/list.h>
16 #include <linux/log2.h>
17 #include <linux/module.h>
18 #include <linux/nospec.h>
19 #include <linux/perf_event.h>
20 #include <linux/platform_device.h>
21 #include <linux/powercap.h>
22 #include <linux/processor.h>
23 #include <linux/slab.h>
24 #include <linux/suspend.h>
25 #include <linux/sysfs.h>
26 #include <linux/types.h>
27
28 #include <asm/cpu_device_id.h>
29 #include <asm/intel-family.h>
30 #include <asm/iosf_mbi.h>
31
32 /* bitmasks for RAPL MSRs, used by primitive access functions */
33 #define ENERGY_STATUS_MASK      0xffffffff
34
35 #define POWER_LIMIT1_MASK       0x7FFF
36 #define POWER_LIMIT1_ENABLE     BIT(15)
37 #define POWER_LIMIT1_CLAMP      BIT(16)
38
39 #define POWER_LIMIT2_MASK       (0x7FFFULL<<32)
40 #define POWER_LIMIT2_ENABLE     BIT_ULL(47)
41 #define POWER_LIMIT2_CLAMP      BIT_ULL(48)
42 #define POWER_HIGH_LOCK         BIT_ULL(63)
43 #define POWER_LOW_LOCK          BIT(31)
44
45 #define POWER_LIMIT4_MASK               0x1FFF
46
47 #define TIME_WINDOW1_MASK       (0x7FULL<<17)
48 #define TIME_WINDOW2_MASK       (0x7FULL<<49)
49
50 #define POWER_UNIT_OFFSET       0
51 #define POWER_UNIT_MASK         0x0F
52
53 #define ENERGY_UNIT_OFFSET      0x08
54 #define ENERGY_UNIT_MASK        0x1F00
55
56 #define TIME_UNIT_OFFSET        0x10
57 #define TIME_UNIT_MASK          0xF0000
58
59 #define POWER_INFO_MAX_MASK     (0x7fffULL<<32)
60 #define POWER_INFO_MIN_MASK     (0x7fffULL<<16)
61 #define POWER_INFO_MAX_TIME_WIN_MASK     (0x3fULL<<48)
62 #define POWER_INFO_THERMAL_SPEC_MASK     0x7fff
63
64 #define PERF_STATUS_THROTTLE_TIME_MASK 0xffffffff
65 #define PP_POLICY_MASK         0x1F
66
67 /*
68  * SPR has different layout for Psys Domain PowerLimit registers.
69  * There are 17 bits of PL1 and PL2 instead of 15 bits.
70  * The Enable bits and TimeWindow bits are also shifted as a result.
71  */
72 #define PSYS_POWER_LIMIT1_MASK       0x1FFFF
73 #define PSYS_POWER_LIMIT1_ENABLE     BIT(17)
74
75 #define PSYS_POWER_LIMIT2_MASK       (0x1FFFFULL<<32)
76 #define PSYS_POWER_LIMIT2_ENABLE     BIT_ULL(49)
77
78 #define PSYS_TIME_WINDOW1_MASK       (0x7FULL<<19)
79 #define PSYS_TIME_WINDOW2_MASK       (0x7FULL<<51)
80
81 /* bitmasks for RAPL TPMI, used by primitive access functions */
82 #define TPMI_POWER_LIMIT_MASK   0x3FFFF
83 #define TPMI_POWER_LIMIT_ENABLE BIT_ULL(62)
84 #define TPMI_TIME_WINDOW_MASK   (0x7FULL<<18)
85 #define TPMI_INFO_SPEC_MASK     0x3FFFF
86 #define TPMI_INFO_MIN_MASK      (0x3FFFFULL << 18)
87 #define TPMI_INFO_MAX_MASK      (0x3FFFFULL << 36)
88 #define TPMI_INFO_MAX_TIME_WIN_MASK     (0x7FULL << 54)
89
90 /* Non HW constants */
91 #define RAPL_PRIMITIVE_DERIVED       BIT(1)     /* not from raw data */
92 #define RAPL_PRIMITIVE_DUMMY         BIT(2)
93
94 #define TIME_WINDOW_MAX_MSEC 40000
95 #define TIME_WINDOW_MIN_MSEC 250
96 #define ENERGY_UNIT_SCALE    1000       /* scale from driver unit to powercap unit */
97 enum unit_type {
98         ARBITRARY_UNIT,         /* no translation */
99         POWER_UNIT,
100         ENERGY_UNIT,
101         TIME_UNIT,
102 };
103
104 /* per domain data, some are optional */
105 #define NR_RAW_PRIMITIVES (NR_RAPL_PRIMITIVES - 2)
106
107 #define DOMAIN_STATE_INACTIVE           BIT(0)
108 #define DOMAIN_STATE_POWER_LIMIT_SET    BIT(1)
109
110 static const char *pl_names[NR_POWER_LIMITS] = {
111         [POWER_LIMIT1] = "long_term",
112         [POWER_LIMIT2] = "short_term",
113         [POWER_LIMIT4] = "peak_power",
114 };
115
116 enum pl_prims {
117         PL_ENABLE,
118         PL_CLAMP,
119         PL_LIMIT,
120         PL_TIME_WINDOW,
121         PL_MAX_POWER,
122         PL_LOCK,
123 };
124
125 static bool is_pl_valid(struct rapl_domain *rd, int pl)
126 {
127         if (pl < POWER_LIMIT1 || pl > POWER_LIMIT4)
128                 return false;
129         return rd->rpl[pl].name ? true : false;
130 }
131
132 static int get_pl_lock_prim(struct rapl_domain *rd, int pl)
133 {
134         if (rd->rp->priv->type == RAPL_IF_TPMI) {
135                 if (pl == POWER_LIMIT1)
136                         return PL1_LOCK;
137                 if (pl == POWER_LIMIT2)
138                         return PL2_LOCK;
139                 if (pl == POWER_LIMIT4)
140                         return PL4_LOCK;
141         }
142
143         /* MSR/MMIO Interface doesn't have Lock bit for PL4 */
144         if (pl == POWER_LIMIT4)
145                 return -EINVAL;
146
147         /*
148          * Power Limit register that supports two power limits has a different
149          * bit position for the Lock bit.
150          */
151         if (rd->rp->priv->limits[rd->id] & BIT(POWER_LIMIT2))
152                 return FW_HIGH_LOCK;
153         return FW_LOCK;
154 }
155
156 static int get_pl_prim(struct rapl_domain *rd, int pl, enum pl_prims prim)
157 {
158         switch (pl) {
159         case POWER_LIMIT1:
160                 if (prim == PL_ENABLE)
161                         return PL1_ENABLE;
162                 if (prim == PL_CLAMP && rd->rp->priv->type != RAPL_IF_TPMI)
163                         return PL1_CLAMP;
164                 if (prim == PL_LIMIT)
165                         return POWER_LIMIT1;
166                 if (prim == PL_TIME_WINDOW)
167                         return TIME_WINDOW1;
168                 if (prim == PL_MAX_POWER)
169                         return THERMAL_SPEC_POWER;
170                 if (prim == PL_LOCK)
171                         return get_pl_lock_prim(rd, pl);
172                 return -EINVAL;
173         case POWER_LIMIT2:
174                 if (prim == PL_ENABLE)
175                         return PL2_ENABLE;
176                 if (prim == PL_CLAMP && rd->rp->priv->type != RAPL_IF_TPMI)
177                         return PL2_CLAMP;
178                 if (prim == PL_LIMIT)
179                         return POWER_LIMIT2;
180                 if (prim == PL_TIME_WINDOW)
181                         return TIME_WINDOW2;
182                 if (prim == PL_MAX_POWER)
183                         return MAX_POWER;
184                 if (prim == PL_LOCK)
185                         return get_pl_lock_prim(rd, pl);
186                 return -EINVAL;
187         case POWER_LIMIT4:
188                 if (prim == PL_LIMIT)
189                         return POWER_LIMIT4;
190                 if (prim == PL_ENABLE)
191                         return PL4_ENABLE;
192                 /* PL4 would be around two times PL2, use same prim as PL2. */
193                 if (prim == PL_MAX_POWER)
194                         return MAX_POWER;
195                 if (prim == PL_LOCK)
196                         return get_pl_lock_prim(rd, pl);
197                 return -EINVAL;
198         default:
199                 return -EINVAL;
200         }
201 }
202
203 #define power_zone_to_rapl_domain(_zone) \
204         container_of(_zone, struct rapl_domain, power_zone)
205
206 struct rapl_defaults {
207         u8 floor_freq_reg_addr;
208         int (*check_unit)(struct rapl_domain *rd);
209         void (*set_floor_freq)(struct rapl_domain *rd, bool mode);
210         u64 (*compute_time_window)(struct rapl_domain *rd, u64 val,
211                                     bool to_raw);
212         unsigned int dram_domain_energy_unit;
213         unsigned int psys_domain_energy_unit;
214         bool spr_psys_bits;
215 };
216 static struct rapl_defaults *defaults_msr;
217 static const struct rapl_defaults defaults_tpmi;
218
219 static struct rapl_defaults *get_defaults(struct rapl_package *rp)
220 {
221         return rp->priv->defaults;
222 }
223
224 /* Sideband MBI registers */
225 #define IOSF_CPU_POWER_BUDGET_CTL_BYT (0x2)
226 #define IOSF_CPU_POWER_BUDGET_CTL_TNG (0xdf)
227
228 #define PACKAGE_PLN_INT_SAVED   BIT(0)
229 #define MAX_PRIM_NAME (32)
230
231 /* per domain data. used to describe individual knobs such that access function
232  * can be consolidated into one instead of many inline functions.
233  */
234 struct rapl_primitive_info {
235         const char *name;
236         u64 mask;
237         int shift;
238         enum rapl_domain_reg_id id;
239         enum unit_type unit;
240         u32 flag;
241 };
242
243 #define PRIMITIVE_INFO_INIT(p, m, s, i, u, f) { \
244                 .name = #p,                     \
245                 .mask = m,                      \
246                 .shift = s,                     \
247                 .id = i,                        \
248                 .unit = u,                      \
249                 .flag = f                       \
250         }
251
252 static void rapl_init_domains(struct rapl_package *rp);
253 static int rapl_read_data_raw(struct rapl_domain *rd,
254                               enum rapl_primitives prim,
255                               bool xlate, u64 *data);
256 static int rapl_write_data_raw(struct rapl_domain *rd,
257                                enum rapl_primitives prim,
258                                unsigned long long value);
259 static int rapl_read_pl_data(struct rapl_domain *rd, int pl,
260                               enum pl_prims pl_prim,
261                               bool xlate, u64 *data);
262 static int rapl_write_pl_data(struct rapl_domain *rd, int pl,
263                                enum pl_prims pl_prim,
264                                unsigned long long value);
265 static u64 rapl_unit_xlate(struct rapl_domain *rd,
266                            enum unit_type type, u64 value, int to_raw);
267 static void package_power_limit_irq_save(struct rapl_package *rp);
268
269 static LIST_HEAD(rapl_packages);        /* guarded by CPU hotplug lock */
270
271 static const char *const rapl_domain_names[] = {
272         "package",
273         "core",
274         "uncore",
275         "dram",
276         "psys",
277 };
278
279 static int get_energy_counter(struct powercap_zone *power_zone,
280                               u64 *energy_raw)
281 {
282         struct rapl_domain *rd;
283         u64 energy_now;
284
285         /* prevent CPU hotplug, make sure the RAPL domain does not go
286          * away while reading the counter.
287          */
288         cpus_read_lock();
289         rd = power_zone_to_rapl_domain(power_zone);
290
291         if (!rapl_read_data_raw(rd, ENERGY_COUNTER, true, &energy_now)) {
292                 *energy_raw = energy_now;
293                 cpus_read_unlock();
294
295                 return 0;
296         }
297         cpus_read_unlock();
298
299         return -EIO;
300 }
301
302 static int get_max_energy_counter(struct powercap_zone *pcd_dev, u64 *energy)
303 {
304         struct rapl_domain *rd = power_zone_to_rapl_domain(pcd_dev);
305
306         *energy = rapl_unit_xlate(rd, ENERGY_UNIT, ENERGY_STATUS_MASK, 0);
307         return 0;
308 }
309
310 static int release_zone(struct powercap_zone *power_zone)
311 {
312         struct rapl_domain *rd = power_zone_to_rapl_domain(power_zone);
313         struct rapl_package *rp = rd->rp;
314
315         /* package zone is the last zone of a package, we can free
316          * memory here since all children has been unregistered.
317          */
318         if (rd->id == RAPL_DOMAIN_PACKAGE) {
319                 kfree(rd);
320                 rp->domains = NULL;
321         }
322
323         return 0;
324
325 }
326
327 static int find_nr_power_limit(struct rapl_domain *rd)
328 {
329         int i, nr_pl = 0;
330
331         for (i = 0; i < NR_POWER_LIMITS; i++) {
332                 if (is_pl_valid(rd, i))
333                         nr_pl++;
334         }
335
336         return nr_pl;
337 }
338
339 static int set_domain_enable(struct powercap_zone *power_zone, bool mode)
340 {
341         struct rapl_domain *rd = power_zone_to_rapl_domain(power_zone);
342         struct rapl_defaults *defaults = get_defaults(rd->rp);
343         int ret;
344
345         cpus_read_lock();
346         ret = rapl_write_pl_data(rd, POWER_LIMIT1, PL_ENABLE, mode);
347         if (!ret && defaults->set_floor_freq)
348                 defaults->set_floor_freq(rd, mode);
349         cpus_read_unlock();
350
351         return ret;
352 }
353
354 static int get_domain_enable(struct powercap_zone *power_zone, bool *mode)
355 {
356         struct rapl_domain *rd = power_zone_to_rapl_domain(power_zone);
357         u64 val;
358         int ret;
359
360         if (rd->rpl[POWER_LIMIT1].locked) {
361                 *mode = false;
362                 return 0;
363         }
364         cpus_read_lock();
365         ret = rapl_read_pl_data(rd, POWER_LIMIT1, PL_ENABLE, true, &val);
366         if (!ret)
367                 *mode = val;
368         cpus_read_unlock();
369
370         return ret;
371 }
372
373 /* per RAPL domain ops, in the order of rapl_domain_type */
374 static const struct powercap_zone_ops zone_ops[] = {
375         /* RAPL_DOMAIN_PACKAGE */
376         {
377          .get_energy_uj = get_energy_counter,
378          .get_max_energy_range_uj = get_max_energy_counter,
379          .release = release_zone,
380          .set_enable = set_domain_enable,
381          .get_enable = get_domain_enable,
382          },
383         /* RAPL_DOMAIN_PP0 */
384         {
385          .get_energy_uj = get_energy_counter,
386          .get_max_energy_range_uj = get_max_energy_counter,
387          .release = release_zone,
388          .set_enable = set_domain_enable,
389          .get_enable = get_domain_enable,
390          },
391         /* RAPL_DOMAIN_PP1 */
392         {
393          .get_energy_uj = get_energy_counter,
394          .get_max_energy_range_uj = get_max_energy_counter,
395          .release = release_zone,
396          .set_enable = set_domain_enable,
397          .get_enable = get_domain_enable,
398          },
399         /* RAPL_DOMAIN_DRAM */
400         {
401          .get_energy_uj = get_energy_counter,
402          .get_max_energy_range_uj = get_max_energy_counter,
403          .release = release_zone,
404          .set_enable = set_domain_enable,
405          .get_enable = get_domain_enable,
406          },
407         /* RAPL_DOMAIN_PLATFORM */
408         {
409          .get_energy_uj = get_energy_counter,
410          .get_max_energy_range_uj = get_max_energy_counter,
411          .release = release_zone,
412          .set_enable = set_domain_enable,
413          .get_enable = get_domain_enable,
414          },
415 };
416
417 /*
418  * Constraint index used by powercap can be different than power limit (PL)
419  * index in that some  PLs maybe missing due to non-existent MSRs. So we
420  * need to convert here by finding the valid PLs only (name populated).
421  */
422 static int contraint_to_pl(struct rapl_domain *rd, int cid)
423 {
424         int i, j;
425
426         for (i = POWER_LIMIT1, j = 0; i < NR_POWER_LIMITS; i++) {
427                 if (is_pl_valid(rd, i) && j++ == cid) {
428                         pr_debug("%s: index %d\n", __func__, i);
429                         return i;
430                 }
431         }
432         pr_err("Cannot find matching power limit for constraint %d\n", cid);
433
434         return -EINVAL;
435 }
436
437 static int set_power_limit(struct powercap_zone *power_zone, int cid,
438                            u64 power_limit)
439 {
440         struct rapl_domain *rd;
441         struct rapl_package *rp;
442         int ret = 0;
443         int id;
444
445         cpus_read_lock();
446         rd = power_zone_to_rapl_domain(power_zone);
447         id = contraint_to_pl(rd, cid);
448         rp = rd->rp;
449
450         ret = rapl_write_pl_data(rd, id, PL_LIMIT, power_limit);
451         if (!ret)
452                 package_power_limit_irq_save(rp);
453         cpus_read_unlock();
454         return ret;
455 }
456
457 static int get_current_power_limit(struct powercap_zone *power_zone, int cid,
458                                    u64 *data)
459 {
460         struct rapl_domain *rd;
461         u64 val;
462         int ret = 0;
463         int id;
464
465         cpus_read_lock();
466         rd = power_zone_to_rapl_domain(power_zone);
467         id = contraint_to_pl(rd, cid);
468
469         ret = rapl_read_pl_data(rd, id, PL_LIMIT, true, &val);
470         if (!ret)
471                 *data = val;
472
473         cpus_read_unlock();
474
475         return ret;
476 }
477
478 static int set_time_window(struct powercap_zone *power_zone, int cid,
479                            u64 window)
480 {
481         struct rapl_domain *rd;
482         int ret = 0;
483         int id;
484
485         cpus_read_lock();
486         rd = power_zone_to_rapl_domain(power_zone);
487         id = contraint_to_pl(rd, cid);
488
489         ret = rapl_write_pl_data(rd, id, PL_TIME_WINDOW, window);
490
491         cpus_read_unlock();
492         return ret;
493 }
494
495 static int get_time_window(struct powercap_zone *power_zone, int cid,
496                            u64 *data)
497 {
498         struct rapl_domain *rd;
499         u64 val;
500         int ret = 0;
501         int id;
502
503         cpus_read_lock();
504         rd = power_zone_to_rapl_domain(power_zone);
505         id = contraint_to_pl(rd, cid);
506
507         ret = rapl_read_pl_data(rd, id, PL_TIME_WINDOW, true, &val);
508         if (!ret)
509                 *data = val;
510
511         cpus_read_unlock();
512
513         return ret;
514 }
515
516 static const char *get_constraint_name(struct powercap_zone *power_zone,
517                                        int cid)
518 {
519         struct rapl_domain *rd;
520         int id;
521
522         rd = power_zone_to_rapl_domain(power_zone);
523         id = contraint_to_pl(rd, cid);
524         if (id >= 0)
525                 return rd->rpl[id].name;
526
527         return NULL;
528 }
529
530 static int get_max_power(struct powercap_zone *power_zone, int cid, u64 *data)
531 {
532         struct rapl_domain *rd;
533         u64 val;
534         int ret = 0;
535         int id;
536
537         cpus_read_lock();
538         rd = power_zone_to_rapl_domain(power_zone);
539         id = contraint_to_pl(rd, cid);
540
541         ret = rapl_read_pl_data(rd, id, PL_MAX_POWER, true, &val);
542         if (!ret)
543                 *data = val;
544
545         /* As a generalization rule, PL4 would be around two times PL2. */
546         if (id == POWER_LIMIT4)
547                 *data = *data * 2;
548
549         cpus_read_unlock();
550
551         return ret;
552 }
553
554 static const struct powercap_zone_constraint_ops constraint_ops = {
555         .set_power_limit_uw = set_power_limit,
556         .get_power_limit_uw = get_current_power_limit,
557         .set_time_window_us = set_time_window,
558         .get_time_window_us = get_time_window,
559         .get_max_power_uw = get_max_power,
560         .get_name = get_constraint_name,
561 };
562
563 /* Return the id used for read_raw/write_raw callback */
564 static int get_rid(struct rapl_package *rp)
565 {
566         return rp->lead_cpu >= 0 ? rp->lead_cpu : rp->id;
567 }
568
569 /* called after domain detection and package level data are set */
570 static void rapl_init_domains(struct rapl_package *rp)
571 {
572         enum rapl_domain_type i;
573         enum rapl_domain_reg_id j;
574         struct rapl_domain *rd = rp->domains;
575
576         for (i = 0; i < RAPL_DOMAIN_MAX; i++) {
577                 unsigned int mask = rp->domain_map & (1 << i);
578                 int t;
579
580                 if (!mask)
581                         continue;
582
583                 rd->rp = rp;
584
585                 if (i == RAPL_DOMAIN_PLATFORM && rp->id > 0) {
586                         snprintf(rd->name, RAPL_DOMAIN_NAME_LENGTH, "psys-%d",
587                                 rp->lead_cpu >= 0 ? topology_physical_package_id(rp->lead_cpu) :
588                                 rp->id);
589                 } else {
590                         snprintf(rd->name, RAPL_DOMAIN_NAME_LENGTH, "%s",
591                                 rapl_domain_names[i]);
592                 }
593
594                 rd->id = i;
595
596                 /* PL1 is supported by default */
597                 rp->priv->limits[i] |= BIT(POWER_LIMIT1);
598
599                 for (t = POWER_LIMIT1; t < NR_POWER_LIMITS; t++) {
600                         if (rp->priv->limits[i] & BIT(t))
601                                 rd->rpl[t].name = pl_names[t];
602                 }
603
604                 for (j = 0; j < RAPL_DOMAIN_REG_MAX; j++)
605                         rd->regs[j] = rp->priv->regs[i][j];
606
607                 rd++;
608         }
609 }
610
611 static u64 rapl_unit_xlate(struct rapl_domain *rd, enum unit_type type,
612                            u64 value, int to_raw)
613 {
614         u64 units = 1;
615         struct rapl_defaults *defaults = get_defaults(rd->rp);
616         u64 scale = 1;
617
618         switch (type) {
619         case POWER_UNIT:
620                 units = rd->power_unit;
621                 break;
622         case ENERGY_UNIT:
623                 scale = ENERGY_UNIT_SCALE;
624                 units = rd->energy_unit;
625                 break;
626         case TIME_UNIT:
627                 return defaults->compute_time_window(rd, value, to_raw);
628         case ARBITRARY_UNIT:
629         default:
630                 return value;
631         }
632
633         if (to_raw)
634                 return div64_u64(value, units) * scale;
635
636         value *= units;
637
638         return div64_u64(value, scale);
639 }
640
641 /* RAPL primitives for MSR and MMIO I/F */
642 static struct rapl_primitive_info rpi_msr[NR_RAPL_PRIMITIVES] = {
643         /* name, mask, shift, msr index, unit divisor */
644         [POWER_LIMIT1] = PRIMITIVE_INFO_INIT(POWER_LIMIT1, POWER_LIMIT1_MASK, 0,
645                             RAPL_DOMAIN_REG_LIMIT, POWER_UNIT, 0),
646         [POWER_LIMIT2] = PRIMITIVE_INFO_INIT(POWER_LIMIT2, POWER_LIMIT2_MASK, 32,
647                             RAPL_DOMAIN_REG_LIMIT, POWER_UNIT, 0),
648         [POWER_LIMIT4] = PRIMITIVE_INFO_INIT(POWER_LIMIT4, POWER_LIMIT4_MASK, 0,
649                                 RAPL_DOMAIN_REG_PL4, POWER_UNIT, 0),
650         [ENERGY_COUNTER] = PRIMITIVE_INFO_INIT(ENERGY_COUNTER, ENERGY_STATUS_MASK, 0,
651                             RAPL_DOMAIN_REG_STATUS, ENERGY_UNIT, 0),
652         [FW_LOCK] = PRIMITIVE_INFO_INIT(FW_LOCK, POWER_LOW_LOCK, 31,
653                             RAPL_DOMAIN_REG_LIMIT, ARBITRARY_UNIT, 0),
654         [FW_HIGH_LOCK] = PRIMITIVE_INFO_INIT(FW_LOCK, POWER_HIGH_LOCK, 63,
655                             RAPL_DOMAIN_REG_LIMIT, ARBITRARY_UNIT, 0),
656         [PL1_ENABLE] = PRIMITIVE_INFO_INIT(PL1_ENABLE, POWER_LIMIT1_ENABLE, 15,
657                             RAPL_DOMAIN_REG_LIMIT, ARBITRARY_UNIT, 0),
658         [PL1_CLAMP] = PRIMITIVE_INFO_INIT(PL1_CLAMP, POWER_LIMIT1_CLAMP, 16,
659                             RAPL_DOMAIN_REG_LIMIT, ARBITRARY_UNIT, 0),
660         [PL2_ENABLE] = PRIMITIVE_INFO_INIT(PL2_ENABLE, POWER_LIMIT2_ENABLE, 47,
661                             RAPL_DOMAIN_REG_LIMIT, ARBITRARY_UNIT, 0),
662         [PL2_CLAMP] = PRIMITIVE_INFO_INIT(PL2_CLAMP, POWER_LIMIT2_CLAMP, 48,
663                             RAPL_DOMAIN_REG_LIMIT, ARBITRARY_UNIT, 0),
664         [TIME_WINDOW1] = PRIMITIVE_INFO_INIT(TIME_WINDOW1, TIME_WINDOW1_MASK, 17,
665                             RAPL_DOMAIN_REG_LIMIT, TIME_UNIT, 0),
666         [TIME_WINDOW2] = PRIMITIVE_INFO_INIT(TIME_WINDOW2, TIME_WINDOW2_MASK, 49,
667                             RAPL_DOMAIN_REG_LIMIT, TIME_UNIT, 0),
668         [THERMAL_SPEC_POWER] = PRIMITIVE_INFO_INIT(THERMAL_SPEC_POWER, POWER_INFO_THERMAL_SPEC_MASK,
669                             0, RAPL_DOMAIN_REG_INFO, POWER_UNIT, 0),
670         [MAX_POWER] = PRIMITIVE_INFO_INIT(MAX_POWER, POWER_INFO_MAX_MASK, 32,
671                             RAPL_DOMAIN_REG_INFO, POWER_UNIT, 0),
672         [MIN_POWER] = PRIMITIVE_INFO_INIT(MIN_POWER, POWER_INFO_MIN_MASK, 16,
673                             RAPL_DOMAIN_REG_INFO, POWER_UNIT, 0),
674         [MAX_TIME_WINDOW] = PRIMITIVE_INFO_INIT(MAX_TIME_WINDOW, POWER_INFO_MAX_TIME_WIN_MASK, 48,
675                             RAPL_DOMAIN_REG_INFO, TIME_UNIT, 0),
676         [THROTTLED_TIME] = PRIMITIVE_INFO_INIT(THROTTLED_TIME, PERF_STATUS_THROTTLE_TIME_MASK, 0,
677                             RAPL_DOMAIN_REG_PERF, TIME_UNIT, 0),
678         [PRIORITY_LEVEL] = PRIMITIVE_INFO_INIT(PRIORITY_LEVEL, PP_POLICY_MASK, 0,
679                             RAPL_DOMAIN_REG_POLICY, ARBITRARY_UNIT, 0),
680         [PSYS_POWER_LIMIT1] = PRIMITIVE_INFO_INIT(PSYS_POWER_LIMIT1, PSYS_POWER_LIMIT1_MASK, 0,
681                             RAPL_DOMAIN_REG_LIMIT, POWER_UNIT, 0),
682         [PSYS_POWER_LIMIT2] = PRIMITIVE_INFO_INIT(PSYS_POWER_LIMIT2, PSYS_POWER_LIMIT2_MASK, 32,
683                             RAPL_DOMAIN_REG_LIMIT, POWER_UNIT, 0),
684         [PSYS_PL1_ENABLE] = PRIMITIVE_INFO_INIT(PSYS_PL1_ENABLE, PSYS_POWER_LIMIT1_ENABLE, 17,
685                             RAPL_DOMAIN_REG_LIMIT, ARBITRARY_UNIT, 0),
686         [PSYS_PL2_ENABLE] = PRIMITIVE_INFO_INIT(PSYS_PL2_ENABLE, PSYS_POWER_LIMIT2_ENABLE, 49,
687                             RAPL_DOMAIN_REG_LIMIT, ARBITRARY_UNIT, 0),
688         [PSYS_TIME_WINDOW1] = PRIMITIVE_INFO_INIT(PSYS_TIME_WINDOW1, PSYS_TIME_WINDOW1_MASK, 19,
689                             RAPL_DOMAIN_REG_LIMIT, TIME_UNIT, 0),
690         [PSYS_TIME_WINDOW2] = PRIMITIVE_INFO_INIT(PSYS_TIME_WINDOW2, PSYS_TIME_WINDOW2_MASK, 51,
691                             RAPL_DOMAIN_REG_LIMIT, TIME_UNIT, 0),
692         /* non-hardware */
693         [AVERAGE_POWER] = PRIMITIVE_INFO_INIT(AVERAGE_POWER, 0, 0, 0, POWER_UNIT,
694                             RAPL_PRIMITIVE_DERIVED),
695 };
696
697 /* RAPL primitives for TPMI I/F */
698 static struct rapl_primitive_info rpi_tpmi[NR_RAPL_PRIMITIVES] = {
699         /* name, mask, shift, msr index, unit divisor */
700         [POWER_LIMIT1] = PRIMITIVE_INFO_INIT(POWER_LIMIT1, TPMI_POWER_LIMIT_MASK, 0,
701                 RAPL_DOMAIN_REG_LIMIT, POWER_UNIT, 0),
702         [POWER_LIMIT2] = PRIMITIVE_INFO_INIT(POWER_LIMIT2, TPMI_POWER_LIMIT_MASK, 0,
703                 RAPL_DOMAIN_REG_PL2, POWER_UNIT, 0),
704         [POWER_LIMIT4] = PRIMITIVE_INFO_INIT(POWER_LIMIT4, TPMI_POWER_LIMIT_MASK, 0,
705                 RAPL_DOMAIN_REG_PL4, POWER_UNIT, 0),
706         [ENERGY_COUNTER] = PRIMITIVE_INFO_INIT(ENERGY_COUNTER, ENERGY_STATUS_MASK, 0,
707                 RAPL_DOMAIN_REG_STATUS, ENERGY_UNIT, 0),
708         [PL1_LOCK] = PRIMITIVE_INFO_INIT(PL1_LOCK, POWER_HIGH_LOCK, 63,
709                 RAPL_DOMAIN_REG_LIMIT, ARBITRARY_UNIT, 0),
710         [PL2_LOCK] = PRIMITIVE_INFO_INIT(PL2_LOCK, POWER_HIGH_LOCK, 63,
711                 RAPL_DOMAIN_REG_PL2, ARBITRARY_UNIT, 0),
712         [PL4_LOCK] = PRIMITIVE_INFO_INIT(PL4_LOCK, POWER_HIGH_LOCK, 63,
713                 RAPL_DOMAIN_REG_PL4, ARBITRARY_UNIT, 0),
714         [PL1_ENABLE] = PRIMITIVE_INFO_INIT(PL1_ENABLE, TPMI_POWER_LIMIT_ENABLE, 62,
715                 RAPL_DOMAIN_REG_LIMIT, ARBITRARY_UNIT, 0),
716         [PL2_ENABLE] = PRIMITIVE_INFO_INIT(PL2_ENABLE, TPMI_POWER_LIMIT_ENABLE, 62,
717                 RAPL_DOMAIN_REG_PL2, ARBITRARY_UNIT, 0),
718         [PL4_ENABLE] = PRIMITIVE_INFO_INIT(PL4_ENABLE, TPMI_POWER_LIMIT_ENABLE, 62,
719                 RAPL_DOMAIN_REG_PL4, ARBITRARY_UNIT, 0),
720         [TIME_WINDOW1] = PRIMITIVE_INFO_INIT(TIME_WINDOW1, TPMI_TIME_WINDOW_MASK, 18,
721                 RAPL_DOMAIN_REG_LIMIT, TIME_UNIT, 0),
722         [TIME_WINDOW2] = PRIMITIVE_INFO_INIT(TIME_WINDOW2, TPMI_TIME_WINDOW_MASK, 18,
723                 RAPL_DOMAIN_REG_PL2, TIME_UNIT, 0),
724         [THERMAL_SPEC_POWER] = PRIMITIVE_INFO_INIT(THERMAL_SPEC_POWER, TPMI_INFO_SPEC_MASK, 0,
725                 RAPL_DOMAIN_REG_INFO, POWER_UNIT, 0),
726         [MAX_POWER] = PRIMITIVE_INFO_INIT(MAX_POWER, TPMI_INFO_MAX_MASK, 36,
727                 RAPL_DOMAIN_REG_INFO, POWER_UNIT, 0),
728         [MIN_POWER] = PRIMITIVE_INFO_INIT(MIN_POWER, TPMI_INFO_MIN_MASK, 18,
729                 RAPL_DOMAIN_REG_INFO, POWER_UNIT, 0),
730         [MAX_TIME_WINDOW] = PRIMITIVE_INFO_INIT(MAX_TIME_WINDOW, TPMI_INFO_MAX_TIME_WIN_MASK, 54,
731                 RAPL_DOMAIN_REG_INFO, TIME_UNIT, 0),
732         [THROTTLED_TIME] = PRIMITIVE_INFO_INIT(THROTTLED_TIME, PERF_STATUS_THROTTLE_TIME_MASK, 0,
733                 RAPL_DOMAIN_REG_PERF, TIME_UNIT, 0),
734         /* non-hardware */
735         [AVERAGE_POWER] = PRIMITIVE_INFO_INIT(AVERAGE_POWER, 0, 0, 0,
736                 POWER_UNIT, RAPL_PRIMITIVE_DERIVED),
737 };
738
739 static struct rapl_primitive_info *get_rpi(struct rapl_package *rp, int prim)
740 {
741         struct rapl_primitive_info *rpi = rp->priv->rpi;
742
743         if (prim < 0 || prim >= NR_RAPL_PRIMITIVES || !rpi)
744                 return NULL;
745
746         return &rpi[prim];
747 }
748
749 static int rapl_config(struct rapl_package *rp)
750 {
751         switch (rp->priv->type) {
752         /* MMIO I/F shares the same register layout as MSR registers */
753         case RAPL_IF_MMIO:
754         case RAPL_IF_MSR:
755                 rp->priv->defaults = (void *)defaults_msr;
756                 rp->priv->rpi = (void *)rpi_msr;
757                 break;
758         case RAPL_IF_TPMI:
759                 rp->priv->defaults = (void *)&defaults_tpmi;
760                 rp->priv->rpi = (void *)rpi_tpmi;
761                 break;
762         default:
763                 return -EINVAL;
764         }
765
766         /* defaults_msr can be NULL on unsupported platforms */
767         if (!rp->priv->defaults || !rp->priv->rpi)
768                 return -ENODEV;
769
770         return 0;
771 }
772
773 static enum rapl_primitives
774 prim_fixups(struct rapl_domain *rd, enum rapl_primitives prim)
775 {
776         struct rapl_defaults *defaults = get_defaults(rd->rp);
777
778         if (!defaults->spr_psys_bits)
779                 return prim;
780
781         if (rd->id != RAPL_DOMAIN_PLATFORM)
782                 return prim;
783
784         switch (prim) {
785         case POWER_LIMIT1:
786                 return PSYS_POWER_LIMIT1;
787         case POWER_LIMIT2:
788                 return PSYS_POWER_LIMIT2;
789         case PL1_ENABLE:
790                 return PSYS_PL1_ENABLE;
791         case PL2_ENABLE:
792                 return PSYS_PL2_ENABLE;
793         case TIME_WINDOW1:
794                 return PSYS_TIME_WINDOW1;
795         case TIME_WINDOW2:
796                 return PSYS_TIME_WINDOW2;
797         default:
798                 return prim;
799         }
800 }
801
802 /* Read primitive data based on its related struct rapl_primitive_info.
803  * if xlate flag is set, return translated data based on data units, i.e.
804  * time, energy, and power.
805  * RAPL MSRs are non-architectual and are laid out not consistently across
806  * domains. Here we use primitive info to allow writing consolidated access
807  * functions.
808  * For a given primitive, it is processed by MSR mask and shift. Unit conversion
809  * is pre-assigned based on RAPL unit MSRs read at init time.
810  * 63-------------------------- 31--------------------------- 0
811  * |                           xxxxx (mask)                   |
812  * |                                |<- shift ----------------|
813  * 63-------------------------- 31--------------------------- 0
814  */
815 static int rapl_read_data_raw(struct rapl_domain *rd,
816                               enum rapl_primitives prim, bool xlate, u64 *data)
817 {
818         u64 value;
819         enum rapl_primitives prim_fixed = prim_fixups(rd, prim);
820         struct rapl_primitive_info *rpi = get_rpi(rd->rp, prim_fixed);
821         struct reg_action ra;
822
823         if (!rpi || !rpi->name || rpi->flag & RAPL_PRIMITIVE_DUMMY)
824                 return -EINVAL;
825
826         ra.reg = rd->regs[rpi->id];
827         if (!ra.reg.val)
828                 return -EINVAL;
829
830         /* non-hardware data are collected by the polling thread */
831         if (rpi->flag & RAPL_PRIMITIVE_DERIVED) {
832                 *data = rd->rdd.primitives[prim];
833                 return 0;
834         }
835
836         ra.mask = rpi->mask;
837
838         if (rd->rp->priv->read_raw(get_rid(rd->rp), &ra)) {
839                 pr_debug("failed to read reg 0x%llx for %s:%s\n", ra.reg.val, rd->rp->name, rd->name);
840                 return -EIO;
841         }
842
843         value = ra.value >> rpi->shift;
844
845         if (xlate)
846                 *data = rapl_unit_xlate(rd, rpi->unit, value, 0);
847         else
848                 *data = value;
849
850         return 0;
851 }
852
853 /* Similar use of primitive info in the read counterpart */
854 static int rapl_write_data_raw(struct rapl_domain *rd,
855                                enum rapl_primitives prim,
856                                unsigned long long value)
857 {
858         enum rapl_primitives prim_fixed = prim_fixups(rd, prim);
859         struct rapl_primitive_info *rpi = get_rpi(rd->rp, prim_fixed);
860         u64 bits;
861         struct reg_action ra;
862         int ret;
863
864         if (!rpi || !rpi->name || rpi->flag & RAPL_PRIMITIVE_DUMMY)
865                 return -EINVAL;
866
867         bits = rapl_unit_xlate(rd, rpi->unit, value, 1);
868         bits <<= rpi->shift;
869         bits &= rpi->mask;
870
871         memset(&ra, 0, sizeof(ra));
872
873         ra.reg = rd->regs[rpi->id];
874         ra.mask = rpi->mask;
875         ra.value = bits;
876
877         ret = rd->rp->priv->write_raw(get_rid(rd->rp), &ra);
878
879         return ret;
880 }
881
882 static int rapl_read_pl_data(struct rapl_domain *rd, int pl,
883                               enum pl_prims pl_prim, bool xlate, u64 *data)
884 {
885         enum rapl_primitives prim = get_pl_prim(rd, pl, pl_prim);
886
887         if (!is_pl_valid(rd, pl))
888                 return -EINVAL;
889
890         return rapl_read_data_raw(rd, prim, xlate, data);
891 }
892
893 static int rapl_write_pl_data(struct rapl_domain *rd, int pl,
894                                enum pl_prims pl_prim,
895                                unsigned long long value)
896 {
897         enum rapl_primitives prim = get_pl_prim(rd, pl, pl_prim);
898
899         if (!is_pl_valid(rd, pl))
900                 return -EINVAL;
901
902         if (rd->rpl[pl].locked) {
903                 pr_debug("%s:%s:%s locked by BIOS\n", rd->rp->name, rd->name, pl_names[pl]);
904                 return -EACCES;
905         }
906
907         return rapl_write_data_raw(rd, prim, value);
908 }
909 /*
910  * Raw RAPL data stored in MSRs are in certain scales. We need to
911  * convert them into standard units based on the units reported in
912  * the RAPL unit MSRs. This is specific to CPUs as the method to
913  * calculate units differ on different CPUs.
914  * We convert the units to below format based on CPUs.
915  * i.e.
916  * energy unit: picoJoules  : Represented in picoJoules by default
917  * power unit : microWatts  : Represented in milliWatts by default
918  * time unit  : microseconds: Represented in seconds by default
919  */
920 static int rapl_check_unit_core(struct rapl_domain *rd)
921 {
922         struct reg_action ra;
923         u32 value;
924
925         ra.reg = rd->regs[RAPL_DOMAIN_REG_UNIT];
926         ra.mask = ~0;
927         if (rd->rp->priv->read_raw(get_rid(rd->rp), &ra)) {
928                 pr_err("Failed to read power unit REG 0x%llx on %s:%s, exit.\n",
929                         ra.reg.val, rd->rp->name, rd->name);
930                 return -ENODEV;
931         }
932
933         value = (ra.value & ENERGY_UNIT_MASK) >> ENERGY_UNIT_OFFSET;
934         rd->energy_unit = ENERGY_UNIT_SCALE * 1000000 / (1 << value);
935
936         value = (ra.value & POWER_UNIT_MASK) >> POWER_UNIT_OFFSET;
937         rd->power_unit = 1000000 / (1 << value);
938
939         value = (ra.value & TIME_UNIT_MASK) >> TIME_UNIT_OFFSET;
940         rd->time_unit = 1000000 / (1 << value);
941
942         pr_debug("Core CPU %s:%s energy=%dpJ, time=%dus, power=%duW\n",
943                  rd->rp->name, rd->name, rd->energy_unit, rd->time_unit, rd->power_unit);
944
945         return 0;
946 }
947
948 static int rapl_check_unit_atom(struct rapl_domain *rd)
949 {
950         struct reg_action ra;
951         u32 value;
952
953         ra.reg = rd->regs[RAPL_DOMAIN_REG_UNIT];
954         ra.mask = ~0;
955         if (rd->rp->priv->read_raw(get_rid(rd->rp), &ra)) {
956                 pr_err("Failed to read power unit REG 0x%llx on %s:%s, exit.\n",
957                         ra.reg.val, rd->rp->name, rd->name);
958                 return -ENODEV;
959         }
960
961         value = (ra.value & ENERGY_UNIT_MASK) >> ENERGY_UNIT_OFFSET;
962         rd->energy_unit = ENERGY_UNIT_SCALE * 1 << value;
963
964         value = (ra.value & POWER_UNIT_MASK) >> POWER_UNIT_OFFSET;
965         rd->power_unit = (1 << value) * 1000;
966
967         value = (ra.value & TIME_UNIT_MASK) >> TIME_UNIT_OFFSET;
968         rd->time_unit = 1000000 / (1 << value);
969
970         pr_debug("Atom %s:%s energy=%dpJ, time=%dus, power=%duW\n",
971                  rd->rp->name, rd->name, rd->energy_unit, rd->time_unit, rd->power_unit);
972
973         return 0;
974 }
975
976 static void power_limit_irq_save_cpu(void *info)
977 {
978         u32 l, h = 0;
979         struct rapl_package *rp = (struct rapl_package *)info;
980
981         /* save the state of PLN irq mask bit before disabling it */
982         rdmsr_safe(MSR_IA32_PACKAGE_THERM_INTERRUPT, &l, &h);
983         if (!(rp->power_limit_irq & PACKAGE_PLN_INT_SAVED)) {
984                 rp->power_limit_irq = l & PACKAGE_THERM_INT_PLN_ENABLE;
985                 rp->power_limit_irq |= PACKAGE_PLN_INT_SAVED;
986         }
987         l &= ~PACKAGE_THERM_INT_PLN_ENABLE;
988         wrmsr_safe(MSR_IA32_PACKAGE_THERM_INTERRUPT, l, h);
989 }
990
991 /* REVISIT:
992  * When package power limit is set artificially low by RAPL, LVT
993  * thermal interrupt for package power limit should be ignored
994  * since we are not really exceeding the real limit. The intention
995  * is to avoid excessive interrupts while we are trying to save power.
996  * A useful feature might be routing the package_power_limit interrupt
997  * to userspace via eventfd. once we have a usecase, this is simple
998  * to do by adding an atomic notifier.
999  */
1000
1001 static void package_power_limit_irq_save(struct rapl_package *rp)
1002 {
1003         if (rp->lead_cpu < 0)
1004                 return;
1005
1006         if (!boot_cpu_has(X86_FEATURE_PTS) || !boot_cpu_has(X86_FEATURE_PLN))
1007                 return;
1008
1009         smp_call_function_single(rp->lead_cpu, power_limit_irq_save_cpu, rp, 1);
1010 }
1011
1012 /*
1013  * Restore per package power limit interrupt enable state. Called from cpu
1014  * hotplug code on package removal.
1015  */
1016 static void package_power_limit_irq_restore(struct rapl_package *rp)
1017 {
1018         u32 l, h;
1019
1020         if (rp->lead_cpu < 0)
1021                 return;
1022
1023         if (!boot_cpu_has(X86_FEATURE_PTS) || !boot_cpu_has(X86_FEATURE_PLN))
1024                 return;
1025
1026         /* irq enable state not saved, nothing to restore */
1027         if (!(rp->power_limit_irq & PACKAGE_PLN_INT_SAVED))
1028                 return;
1029
1030         rdmsr_safe(MSR_IA32_PACKAGE_THERM_INTERRUPT, &l, &h);
1031
1032         if (rp->power_limit_irq & PACKAGE_THERM_INT_PLN_ENABLE)
1033                 l |= PACKAGE_THERM_INT_PLN_ENABLE;
1034         else
1035                 l &= ~PACKAGE_THERM_INT_PLN_ENABLE;
1036
1037         wrmsr_safe(MSR_IA32_PACKAGE_THERM_INTERRUPT, l, h);
1038 }
1039
1040 static void set_floor_freq_default(struct rapl_domain *rd, bool mode)
1041 {
1042         int i;
1043
1044         /* always enable clamp such that p-state can go below OS requested
1045          * range. power capping priority over guranteed frequency.
1046          */
1047         rapl_write_pl_data(rd, POWER_LIMIT1, PL_CLAMP, mode);
1048
1049         for (i = POWER_LIMIT2; i < NR_POWER_LIMITS; i++) {
1050                 rapl_write_pl_data(rd, i, PL_ENABLE, mode);
1051                 rapl_write_pl_data(rd, i, PL_CLAMP, mode);
1052         }
1053 }
1054
1055 static void set_floor_freq_atom(struct rapl_domain *rd, bool enable)
1056 {
1057         static u32 power_ctrl_orig_val;
1058         struct rapl_defaults *defaults = get_defaults(rd->rp);
1059         u32 mdata;
1060
1061         if (!defaults->floor_freq_reg_addr) {
1062                 pr_err("Invalid floor frequency config register\n");
1063                 return;
1064         }
1065
1066         if (!power_ctrl_orig_val)
1067                 iosf_mbi_read(BT_MBI_UNIT_PMC, MBI_CR_READ,
1068                               defaults->floor_freq_reg_addr,
1069                               &power_ctrl_orig_val);
1070         mdata = power_ctrl_orig_val;
1071         if (enable) {
1072                 mdata &= ~(0x7f << 8);
1073                 mdata |= 1 << 8;
1074         }
1075         iosf_mbi_write(BT_MBI_UNIT_PMC, MBI_CR_WRITE,
1076                        defaults->floor_freq_reg_addr, mdata);
1077 }
1078
1079 static u64 rapl_compute_time_window_core(struct rapl_domain *rd, u64 value,
1080                                          bool to_raw)
1081 {
1082         u64 f, y;               /* fraction and exp. used for time unit */
1083
1084         /*
1085          * Special processing based on 2^Y*(1+F/4), refer
1086          * to Intel Software Developer's manual Vol.3B: CH 14.9.3.
1087          */
1088         if (!to_raw) {
1089                 f = (value & 0x60) >> 5;
1090                 y = value & 0x1f;
1091                 value = (1 << y) * (4 + f) * rd->time_unit / 4;
1092         } else {
1093                 if (value < rd->time_unit)
1094                         return 0;
1095
1096                 do_div(value, rd->time_unit);
1097                 y = ilog2(value);
1098
1099                 /*
1100                  * The target hardware field is 7 bits wide, so return all ones
1101                  * if the exponent is too large.
1102                  */
1103                 if (y > 0x1f)
1104                         return 0x7f;
1105
1106                 f = div64_u64(4 * (value - (1ULL << y)), 1ULL << y);
1107                 value = (y & 0x1f) | ((f & 0x3) << 5);
1108         }
1109         return value;
1110 }
1111
1112 static u64 rapl_compute_time_window_atom(struct rapl_domain *rd, u64 value,
1113                                          bool to_raw)
1114 {
1115         /*
1116          * Atom time unit encoding is straight forward val * time_unit,
1117          * where time_unit is default to 1 sec. Never 0.
1118          */
1119         if (!to_raw)
1120                 return (value) ? value * rd->time_unit : rd->time_unit;
1121
1122         value = div64_u64(value, rd->time_unit);
1123
1124         return value;
1125 }
1126
1127 /* TPMI Unit register has different layout */
1128 #define TPMI_POWER_UNIT_OFFSET  POWER_UNIT_OFFSET
1129 #define TPMI_POWER_UNIT_MASK    POWER_UNIT_MASK
1130 #define TPMI_ENERGY_UNIT_OFFSET 0x06
1131 #define TPMI_ENERGY_UNIT_MASK   0x7C0
1132 #define TPMI_TIME_UNIT_OFFSET   0x0C
1133 #define TPMI_TIME_UNIT_MASK     0xF000
1134
1135 static int rapl_check_unit_tpmi(struct rapl_domain *rd)
1136 {
1137         struct reg_action ra;
1138         u32 value;
1139
1140         ra.reg = rd->regs[RAPL_DOMAIN_REG_UNIT];
1141         ra.mask = ~0;
1142         if (rd->rp->priv->read_raw(get_rid(rd->rp), &ra)) {
1143                 pr_err("Failed to read power unit REG 0x%llx on %s:%s, exit.\n",
1144                         ra.reg.val, rd->rp->name, rd->name);
1145                 return -ENODEV;
1146         }
1147
1148         value = (ra.value & TPMI_ENERGY_UNIT_MASK) >> TPMI_ENERGY_UNIT_OFFSET;
1149         rd->energy_unit = ENERGY_UNIT_SCALE * 1000000 / (1 << value);
1150
1151         value = (ra.value & TPMI_POWER_UNIT_MASK) >> TPMI_POWER_UNIT_OFFSET;
1152         rd->power_unit = 1000000 / (1 << value);
1153
1154         value = (ra.value & TPMI_TIME_UNIT_MASK) >> TPMI_TIME_UNIT_OFFSET;
1155         rd->time_unit = 1000000 / (1 << value);
1156
1157         pr_debug("Core CPU %s:%s energy=%dpJ, time=%dus, power=%duW\n",
1158                  rd->rp->name, rd->name, rd->energy_unit, rd->time_unit, rd->power_unit);
1159
1160         return 0;
1161 }
1162
1163 static const struct rapl_defaults defaults_tpmi = {
1164         .check_unit = rapl_check_unit_tpmi,
1165         /* Reuse existing logic, ignore the PL_CLAMP failures and enable all Power Limits */
1166         .set_floor_freq = set_floor_freq_default,
1167         .compute_time_window = rapl_compute_time_window_core,
1168 };
1169
1170 static const struct rapl_defaults rapl_defaults_core = {
1171         .floor_freq_reg_addr = 0,
1172         .check_unit = rapl_check_unit_core,
1173         .set_floor_freq = set_floor_freq_default,
1174         .compute_time_window = rapl_compute_time_window_core,
1175 };
1176
1177 static const struct rapl_defaults rapl_defaults_hsw_server = {
1178         .check_unit = rapl_check_unit_core,
1179         .set_floor_freq = set_floor_freq_default,
1180         .compute_time_window = rapl_compute_time_window_core,
1181         .dram_domain_energy_unit = 15300,
1182 };
1183
1184 static const struct rapl_defaults rapl_defaults_spr_server = {
1185         .check_unit = rapl_check_unit_core,
1186         .set_floor_freq = set_floor_freq_default,
1187         .compute_time_window = rapl_compute_time_window_core,
1188         .psys_domain_energy_unit = 1000000000,
1189         .spr_psys_bits = true,
1190 };
1191
1192 static const struct rapl_defaults rapl_defaults_byt = {
1193         .floor_freq_reg_addr = IOSF_CPU_POWER_BUDGET_CTL_BYT,
1194         .check_unit = rapl_check_unit_atom,
1195         .set_floor_freq = set_floor_freq_atom,
1196         .compute_time_window = rapl_compute_time_window_atom,
1197 };
1198
1199 static const struct rapl_defaults rapl_defaults_tng = {
1200         .floor_freq_reg_addr = IOSF_CPU_POWER_BUDGET_CTL_TNG,
1201         .check_unit = rapl_check_unit_atom,
1202         .set_floor_freq = set_floor_freq_atom,
1203         .compute_time_window = rapl_compute_time_window_atom,
1204 };
1205
1206 static const struct rapl_defaults rapl_defaults_ann = {
1207         .floor_freq_reg_addr = 0,
1208         .check_unit = rapl_check_unit_atom,
1209         .set_floor_freq = NULL,
1210         .compute_time_window = rapl_compute_time_window_atom,
1211 };
1212
1213 static const struct rapl_defaults rapl_defaults_cht = {
1214         .floor_freq_reg_addr = 0,
1215         .check_unit = rapl_check_unit_atom,
1216         .set_floor_freq = NULL,
1217         .compute_time_window = rapl_compute_time_window_atom,
1218 };
1219
1220 static const struct rapl_defaults rapl_defaults_amd = {
1221         .check_unit = rapl_check_unit_core,
1222 };
1223
1224 static const struct x86_cpu_id rapl_ids[] __initconst = {
1225         X86_MATCH_VFM(INTEL_SANDYBRIDGE,        &rapl_defaults_core),
1226         X86_MATCH_VFM(INTEL_SANDYBRIDGE_X,      &rapl_defaults_core),
1227
1228         X86_MATCH_VFM(INTEL_IVYBRIDGE,          &rapl_defaults_core),
1229         X86_MATCH_VFM(INTEL_IVYBRIDGE_X,        &rapl_defaults_core),
1230
1231         X86_MATCH_VFM(INTEL_HASWELL,            &rapl_defaults_core),
1232         X86_MATCH_VFM(INTEL_HASWELL_L,          &rapl_defaults_core),
1233         X86_MATCH_VFM(INTEL_HASWELL_G,          &rapl_defaults_core),
1234         X86_MATCH_VFM(INTEL_HASWELL_X,          &rapl_defaults_hsw_server),
1235
1236         X86_MATCH_VFM(INTEL_BROADWELL,          &rapl_defaults_core),
1237         X86_MATCH_VFM(INTEL_BROADWELL_G,        &rapl_defaults_core),
1238         X86_MATCH_VFM(INTEL_BROADWELL_D,        &rapl_defaults_core),
1239         X86_MATCH_VFM(INTEL_BROADWELL_X,        &rapl_defaults_hsw_server),
1240
1241         X86_MATCH_VFM(INTEL_SKYLAKE,            &rapl_defaults_core),
1242         X86_MATCH_VFM(INTEL_SKYLAKE_L,          &rapl_defaults_core),
1243         X86_MATCH_VFM(INTEL_SKYLAKE_X,          &rapl_defaults_hsw_server),
1244         X86_MATCH_VFM(INTEL_KABYLAKE_L,         &rapl_defaults_core),
1245         X86_MATCH_VFM(INTEL_KABYLAKE,           &rapl_defaults_core),
1246         X86_MATCH_VFM(INTEL_CANNONLAKE_L,       &rapl_defaults_core),
1247         X86_MATCH_VFM(INTEL_ICELAKE_L,          &rapl_defaults_core),
1248         X86_MATCH_VFM(INTEL_ICELAKE,            &rapl_defaults_core),
1249         X86_MATCH_VFM(INTEL_ICELAKE_NNPI,       &rapl_defaults_core),
1250         X86_MATCH_VFM(INTEL_ICELAKE_X,          &rapl_defaults_hsw_server),
1251         X86_MATCH_VFM(INTEL_ICELAKE_D,          &rapl_defaults_hsw_server),
1252         X86_MATCH_VFM(INTEL_COMETLAKE_L,        &rapl_defaults_core),
1253         X86_MATCH_VFM(INTEL_COMETLAKE,          &rapl_defaults_core),
1254         X86_MATCH_VFM(INTEL_TIGERLAKE_L,        &rapl_defaults_core),
1255         X86_MATCH_VFM(INTEL_TIGERLAKE,          &rapl_defaults_core),
1256         X86_MATCH_VFM(INTEL_ROCKETLAKE,         &rapl_defaults_core),
1257         X86_MATCH_VFM(INTEL_ALDERLAKE,          &rapl_defaults_core),
1258         X86_MATCH_VFM(INTEL_ALDERLAKE_L,        &rapl_defaults_core),
1259         X86_MATCH_VFM(INTEL_ATOM_GRACEMONT,     &rapl_defaults_core),
1260         X86_MATCH_VFM(INTEL_RAPTORLAKE,         &rapl_defaults_core),
1261         X86_MATCH_VFM(INTEL_RAPTORLAKE_P,        &rapl_defaults_core),
1262         X86_MATCH_VFM(INTEL_RAPTORLAKE_S,       &rapl_defaults_core),
1263         X86_MATCH_VFM(INTEL_METEORLAKE,         &rapl_defaults_core),
1264         X86_MATCH_VFM(INTEL_METEORLAKE_L,       &rapl_defaults_core),
1265         X86_MATCH_VFM(INTEL_SAPPHIRERAPIDS_X,   &rapl_defaults_spr_server),
1266         X86_MATCH_VFM(INTEL_EMERALDRAPIDS_X,    &rapl_defaults_spr_server),
1267         X86_MATCH_VFM(INTEL_LUNARLAKE_M,        &rapl_defaults_core),
1268         X86_MATCH_VFM(INTEL_PANTHERLAKE_L,      &rapl_defaults_core),
1269         X86_MATCH_VFM(INTEL_ARROWLAKE_H,        &rapl_defaults_core),
1270         X86_MATCH_VFM(INTEL_ARROWLAKE,          &rapl_defaults_core),
1271         X86_MATCH_VFM(INTEL_ARROWLAKE_U,        &rapl_defaults_core),
1272         X86_MATCH_VFM(INTEL_LAKEFIELD,          &rapl_defaults_core),
1273
1274         X86_MATCH_VFM(INTEL_ATOM_SILVERMONT,    &rapl_defaults_byt),
1275         X86_MATCH_VFM(INTEL_ATOM_AIRMONT,       &rapl_defaults_cht),
1276         X86_MATCH_VFM(INTEL_ATOM_SILVERMONT_MID, &rapl_defaults_tng),
1277         X86_MATCH_VFM(INTEL_ATOM_AIRMONT_MID,   &rapl_defaults_ann),
1278         X86_MATCH_VFM(INTEL_ATOM_GOLDMONT,      &rapl_defaults_core),
1279         X86_MATCH_VFM(INTEL_ATOM_GOLDMONT_PLUS, &rapl_defaults_core),
1280         X86_MATCH_VFM(INTEL_ATOM_GOLDMONT_D,    &rapl_defaults_core),
1281         X86_MATCH_VFM(INTEL_ATOM_TREMONT,       &rapl_defaults_core),
1282         X86_MATCH_VFM(INTEL_ATOM_TREMONT_D,     &rapl_defaults_core),
1283         X86_MATCH_VFM(INTEL_ATOM_TREMONT_L,     &rapl_defaults_core),
1284
1285         X86_MATCH_VFM(INTEL_XEON_PHI_KNL,       &rapl_defaults_hsw_server),
1286         X86_MATCH_VFM(INTEL_XEON_PHI_KNM,       &rapl_defaults_hsw_server),
1287
1288         X86_MATCH_VENDOR_FAM(AMD, 0x17, &rapl_defaults_amd),
1289         X86_MATCH_VENDOR_FAM(AMD, 0x19, &rapl_defaults_amd),
1290         X86_MATCH_VENDOR_FAM(AMD, 0x1A, &rapl_defaults_amd),
1291         X86_MATCH_VENDOR_FAM(HYGON, 0x18, &rapl_defaults_amd),
1292         {}
1293 };
1294 MODULE_DEVICE_TABLE(x86cpu, rapl_ids);
1295
1296 /* Read once for all raw primitive data for domains */
1297 static void rapl_update_domain_data(struct rapl_package *rp)
1298 {
1299         int dmn, prim;
1300         u64 val;
1301
1302         for (dmn = 0; dmn < rp->nr_domains; dmn++) {
1303                 pr_debug("update %s domain %s data\n", rp->name,
1304                          rp->domains[dmn].name);
1305                 /* exclude non-raw primitives */
1306                 for (prim = 0; prim < NR_RAW_PRIMITIVES; prim++) {
1307                         struct rapl_primitive_info *rpi = get_rpi(rp, prim);
1308
1309                         if (!rapl_read_data_raw(&rp->domains[dmn], prim,
1310                                                 rpi->unit, &val))
1311                                 rp->domains[dmn].rdd.primitives[prim] = val;
1312                 }
1313         }
1314
1315 }
1316
1317 static int rapl_package_register_powercap(struct rapl_package *rp)
1318 {
1319         struct rapl_domain *rd;
1320         struct powercap_zone *power_zone = NULL;
1321         int nr_pl, ret;
1322
1323         /* Update the domain data of the new package */
1324         rapl_update_domain_data(rp);
1325
1326         /* first we register package domain as the parent zone */
1327         for (rd = rp->domains; rd < rp->domains + rp->nr_domains; rd++) {
1328                 if (rd->id == RAPL_DOMAIN_PACKAGE) {
1329                         nr_pl = find_nr_power_limit(rd);
1330                         pr_debug("register package domain %s\n", rp->name);
1331                         power_zone = powercap_register_zone(&rd->power_zone,
1332                                             rp->priv->control_type, rp->name,
1333                                             NULL, &zone_ops[rd->id], nr_pl,
1334                                             &constraint_ops);
1335                         if (IS_ERR(power_zone)) {
1336                                 pr_debug("failed to register power zone %s\n",
1337                                          rp->name);
1338                                 return PTR_ERR(power_zone);
1339                         }
1340                         /* track parent zone in per package/socket data */
1341                         rp->power_zone = power_zone;
1342                         /* done, only one package domain per socket */
1343                         break;
1344                 }
1345         }
1346         if (!power_zone) {
1347                 pr_err("no package domain found, unknown topology!\n");
1348                 return -ENODEV;
1349         }
1350         /* now register domains as children of the socket/package */
1351         for (rd = rp->domains; rd < rp->domains + rp->nr_domains; rd++) {
1352                 struct powercap_zone *parent = rp->power_zone;
1353
1354                 if (rd->id == RAPL_DOMAIN_PACKAGE)
1355                         continue;
1356                 if (rd->id == RAPL_DOMAIN_PLATFORM)
1357                         parent = NULL;
1358                 /* number of power limits per domain varies */
1359                 nr_pl = find_nr_power_limit(rd);
1360                 power_zone = powercap_register_zone(&rd->power_zone,
1361                                                     rp->priv->control_type,
1362                                                     rd->name, parent,
1363                                                     &zone_ops[rd->id], nr_pl,
1364                                                     &constraint_ops);
1365
1366                 if (IS_ERR(power_zone)) {
1367                         pr_debug("failed to register power_zone, %s:%s\n",
1368                                  rp->name, rd->name);
1369                         ret = PTR_ERR(power_zone);
1370                         goto err_cleanup;
1371                 }
1372         }
1373         return 0;
1374
1375 err_cleanup:
1376         /*
1377          * Clean up previously initialized domains within the package if we
1378          * failed after the first domain setup.
1379          */
1380         while (--rd >= rp->domains) {
1381                 pr_debug("unregister %s domain %s\n", rp->name, rd->name);
1382                 powercap_unregister_zone(rp->priv->control_type,
1383                                          &rd->power_zone);
1384         }
1385
1386         return ret;
1387 }
1388
1389 static int rapl_check_domain(int domain, struct rapl_package *rp)
1390 {
1391         struct reg_action ra;
1392
1393         switch (domain) {
1394         case RAPL_DOMAIN_PACKAGE:
1395         case RAPL_DOMAIN_PP0:
1396         case RAPL_DOMAIN_PP1:
1397         case RAPL_DOMAIN_DRAM:
1398         case RAPL_DOMAIN_PLATFORM:
1399                 ra.reg = rp->priv->regs[domain][RAPL_DOMAIN_REG_STATUS];
1400                 break;
1401         default:
1402                 pr_err("invalid domain id %d\n", domain);
1403                 return -EINVAL;
1404         }
1405         /* make sure domain counters are available and contains non-zero
1406          * values, otherwise skip it.
1407          */
1408
1409         ra.mask = ENERGY_STATUS_MASK;
1410         if (rp->priv->read_raw(get_rid(rp), &ra) || !ra.value)
1411                 return -ENODEV;
1412
1413         return 0;
1414 }
1415
1416 /*
1417  * Get per domain energy/power/time unit.
1418  * RAPL Interfaces without per domain unit register will use the package
1419  * scope unit register to set per domain units.
1420  */
1421 static int rapl_get_domain_unit(struct rapl_domain *rd)
1422 {
1423         struct rapl_defaults *defaults = get_defaults(rd->rp);
1424         int ret;
1425
1426         if (!rd->regs[RAPL_DOMAIN_REG_UNIT].val) {
1427                 if (!rd->rp->priv->reg_unit.val) {
1428                         pr_err("No valid Unit register found\n");
1429                         return -ENODEV;
1430                 }
1431                 rd->regs[RAPL_DOMAIN_REG_UNIT] = rd->rp->priv->reg_unit;
1432         }
1433
1434         if (!defaults->check_unit) {
1435                 pr_err("missing .check_unit() callback\n");
1436                 return -ENODEV;
1437         }
1438
1439         ret = defaults->check_unit(rd);
1440         if (ret)
1441                 return ret;
1442
1443         if (rd->id == RAPL_DOMAIN_DRAM && defaults->dram_domain_energy_unit)
1444                 rd->energy_unit = defaults->dram_domain_energy_unit;
1445         if (rd->id == RAPL_DOMAIN_PLATFORM && defaults->psys_domain_energy_unit)
1446                 rd->energy_unit = defaults->psys_domain_energy_unit;
1447         return 0;
1448 }
1449
1450 /*
1451  * Check if power limits are available. Two cases when they are not available:
1452  * 1. Locked by BIOS, in this case we still provide read-only access so that
1453  *    users can see what limit is set by the BIOS.
1454  * 2. Some CPUs make some domains monitoring only which means PLx MSRs may not
1455  *    exist at all. In this case, we do not show the constraints in powercap.
1456  *
1457  * Called after domains are detected and initialized.
1458  */
1459 static void rapl_detect_powerlimit(struct rapl_domain *rd)
1460 {
1461         u64 val64;
1462         int i;
1463
1464         for (i = POWER_LIMIT1; i < NR_POWER_LIMITS; i++) {
1465                 if (!rapl_read_pl_data(rd, i, PL_LOCK, false, &val64)) {
1466                         if (val64) {
1467                                 rd->rpl[i].locked = true;
1468                                 pr_info("%s:%s:%s locked by BIOS\n",
1469                                         rd->rp->name, rd->name, pl_names[i]);
1470                         }
1471                 }
1472
1473                 if (rapl_read_pl_data(rd, i, PL_LIMIT, false, &val64))
1474                         rd->rpl[i].name = NULL;
1475         }
1476 }
1477
1478 /* Detect active and valid domains for the given CPU, caller must
1479  * ensure the CPU belongs to the targeted package and CPU hotlug is disabled.
1480  */
1481 static int rapl_detect_domains(struct rapl_package *rp)
1482 {
1483         struct rapl_domain *rd;
1484         int i;
1485
1486         for (i = 0; i < RAPL_DOMAIN_MAX; i++) {
1487                 /* use physical package id to read counters */
1488                 if (!rapl_check_domain(i, rp)) {
1489                         rp->domain_map |= 1 << i;
1490                         pr_info("Found RAPL domain %s\n", rapl_domain_names[i]);
1491                 }
1492         }
1493         rp->nr_domains = bitmap_weight(&rp->domain_map, RAPL_DOMAIN_MAX);
1494         if (!rp->nr_domains) {
1495                 pr_debug("no valid rapl domains found in %s\n", rp->name);
1496                 return -ENODEV;
1497         }
1498         pr_debug("found %d domains on %s\n", rp->nr_domains, rp->name);
1499
1500         rp->domains = kcalloc(rp->nr_domains, sizeof(struct rapl_domain),
1501                               GFP_KERNEL);
1502         if (!rp->domains)
1503                 return -ENOMEM;
1504
1505         rapl_init_domains(rp);
1506
1507         for (rd = rp->domains; rd < rp->domains + rp->nr_domains; rd++) {
1508                 rapl_get_domain_unit(rd);
1509                 rapl_detect_powerlimit(rd);
1510         }
1511
1512         return 0;
1513 }
1514
1515 #ifdef CONFIG_PERF_EVENTS
1516
1517 /*
1518  * Support for RAPL PMU
1519  *
1520  * Register a PMU if any of the registered RAPL Packages have the requirement
1521  * of exposing its energy counters via Perf PMU.
1522  *
1523  * PMU Name:
1524  *      power
1525  *
1526  * Events:
1527  *      Name            Event id        RAPL Domain
1528  *      energy_cores    0x01            RAPL_DOMAIN_PP0
1529  *      energy_pkg      0x02            RAPL_DOMAIN_PACKAGE
1530  *      energy_ram      0x03            RAPL_DOMAIN_DRAM
1531  *      energy_gpu      0x04            RAPL_DOMAIN_PP1
1532  *      energy_psys     0x05            RAPL_DOMAIN_PLATFORM
1533  *
1534  * Unit:
1535  *      Joules
1536  *
1537  * Scale:
1538  *      2.3283064365386962890625e-10
1539  *      The same RAPL domain in different RAPL Packages may have different
1540  *      energy units. Use 2.3283064365386962890625e-10 (2^-32) Joules as
1541  *      the fixed unit for all energy counters, and covert each hardware
1542  *      counter increase to N times of PMU event counter increases.
1543  *
1544  * This is fully compatible with the current MSR RAPL PMU. This means that
1545  * userspace programs like turbostat can use the same code to handle RAPL Perf
1546  * PMU, no matter what RAPL Interface driver (MSR/TPMI, etc) is running
1547  * underlying on the platform.
1548  *
1549  * Note that RAPL Packages can be probed/removed dynamically, and the events
1550  * supported by each TPMI RAPL device can be different. Thus the RAPL PMU
1551  * support is done on demand, which means
1552  * 1. PMU is registered only if it is needed by a RAPL Package. PMU events for
1553  *    unsupported counters are not exposed.
1554  * 2. PMU is unregistered and registered when a new RAPL Package is probed and
1555  *    supports new counters that are not supported by current PMU.
1556  * 3. PMU is unregistered when all registered RAPL Packages don't need PMU.
1557  */
1558
1559 struct rapl_pmu {
1560         struct pmu pmu;                 /* Perf PMU structure */
1561         u64 timer_ms;                   /* Maximum expiration time to avoid counter overflow */
1562         unsigned long domain_map;       /* Events supported by current registered PMU */
1563         bool registered;                /* Whether the PMU has been registered or not */
1564 };
1565
1566 static struct rapl_pmu rapl_pmu;
1567
1568 /* PMU helpers */
1569
1570 static int get_pmu_cpu(struct rapl_package *rp)
1571 {
1572         int cpu;
1573
1574         if (!rp->has_pmu)
1575                 return nr_cpu_ids;
1576
1577         /* Only TPMI RAPL is supported for now */
1578         if (rp->priv->type != RAPL_IF_TPMI)
1579                 return nr_cpu_ids;
1580
1581         /* TPMI RAPL uses any CPU in the package for PMU */
1582         for_each_online_cpu(cpu)
1583                 if (topology_physical_package_id(cpu) == rp->id)
1584                         return cpu;
1585
1586         return nr_cpu_ids;
1587 }
1588
1589 static bool is_rp_pmu_cpu(struct rapl_package *rp, int cpu)
1590 {
1591         if (!rp->has_pmu)
1592                 return false;
1593
1594         /* Only TPMI RAPL is supported for now */
1595         if (rp->priv->type != RAPL_IF_TPMI)
1596                 return false;
1597
1598         /* TPMI RAPL uses any CPU in the package for PMU */
1599         return topology_physical_package_id(cpu) == rp->id;
1600 }
1601
1602 static struct rapl_package_pmu_data *event_to_pmu_data(struct perf_event *event)
1603 {
1604         struct rapl_package *rp = event->pmu_private;
1605
1606         return &rp->pmu_data;
1607 }
1608
1609 /* PMU event callbacks */
1610
1611 static u64 event_read_counter(struct perf_event *event)
1612 {
1613         struct rapl_package *rp = event->pmu_private;
1614         u64 val;
1615         int ret;
1616
1617         /* Return 0 for unsupported events */
1618         if (event->hw.idx < 0)
1619                 return 0;
1620
1621         ret = rapl_read_data_raw(&rp->domains[event->hw.idx], ENERGY_COUNTER, false, &val);
1622
1623         /* Return 0 for failed read */
1624         if (ret)
1625                 return 0;
1626
1627         return val;
1628 }
1629
1630 static void __rapl_pmu_event_start(struct perf_event *event)
1631 {
1632         struct rapl_package_pmu_data *data = event_to_pmu_data(event);
1633
1634         if (WARN_ON_ONCE(!(event->hw.state & PERF_HES_STOPPED)))
1635                 return;
1636
1637         event->hw.state = 0;
1638
1639         list_add_tail(&event->active_entry, &data->active_list);
1640
1641         local64_set(&event->hw.prev_count, event_read_counter(event));
1642         if (++data->n_active == 1)
1643                 hrtimer_start(&data->hrtimer, data->timer_interval,
1644                               HRTIMER_MODE_REL_PINNED);
1645 }
1646
1647 static void rapl_pmu_event_start(struct perf_event *event, int mode)
1648 {
1649         struct rapl_package_pmu_data *data = event_to_pmu_data(event);
1650         unsigned long flags;
1651
1652         raw_spin_lock_irqsave(&data->lock, flags);
1653         __rapl_pmu_event_start(event);
1654         raw_spin_unlock_irqrestore(&data->lock, flags);
1655 }
1656
1657 static u64 rapl_event_update(struct perf_event *event)
1658 {
1659         struct hw_perf_event *hwc = &event->hw;
1660         struct rapl_package_pmu_data *data = event_to_pmu_data(event);
1661         u64 prev_raw_count, new_raw_count;
1662         s64 delta, sdelta;
1663
1664         /*
1665          * Follow the generic code to drain hwc->prev_count.
1666          * The loop is not expected to run for multiple times.
1667          */
1668         prev_raw_count = local64_read(&hwc->prev_count);
1669         do {
1670                 new_raw_count = event_read_counter(event);
1671         } while (!local64_try_cmpxchg(&hwc->prev_count,
1672                 &prev_raw_count, new_raw_count));
1673
1674
1675         /*
1676          * Now we have the new raw value and have updated the prev
1677          * timestamp already. We can now calculate the elapsed delta
1678          * (event-)time and add that to the generic event.
1679          */
1680         delta = new_raw_count - prev_raw_count;
1681
1682         /*
1683          * Scale delta to smallest unit (2^-32)
1684          * users must then scale back: count * 1/(1e9*2^32) to get Joules
1685          * or use ldexp(count, -32).
1686          * Watts = Joules/Time delta
1687          */
1688         sdelta = delta * data->scale[event->hw.flags];
1689
1690         local64_add(sdelta, &event->count);
1691
1692         return new_raw_count;
1693 }
1694
1695 static void rapl_pmu_event_stop(struct perf_event *event, int mode)
1696 {
1697         struct rapl_package_pmu_data *data = event_to_pmu_data(event);
1698         struct hw_perf_event *hwc = &event->hw;
1699         unsigned long flags;
1700
1701         raw_spin_lock_irqsave(&data->lock, flags);
1702
1703         /* Mark event as deactivated and stopped */
1704         if (!(hwc->state & PERF_HES_STOPPED)) {
1705                 WARN_ON_ONCE(data->n_active <= 0);
1706                 if (--data->n_active == 0)
1707                         hrtimer_cancel(&data->hrtimer);
1708
1709                 list_del(&event->active_entry);
1710
1711                 WARN_ON_ONCE(hwc->state & PERF_HES_STOPPED);
1712                 hwc->state |= PERF_HES_STOPPED;
1713         }
1714
1715         /* Check if update of sw counter is necessary */
1716         if ((mode & PERF_EF_UPDATE) && !(hwc->state & PERF_HES_UPTODATE)) {
1717                 /*
1718                  * Drain the remaining delta count out of a event
1719                  * that we are disabling:
1720                  */
1721                 rapl_event_update(event);
1722                 hwc->state |= PERF_HES_UPTODATE;
1723         }
1724
1725         raw_spin_unlock_irqrestore(&data->lock, flags);
1726 }
1727
1728 static int rapl_pmu_event_add(struct perf_event *event, int mode)
1729 {
1730         struct rapl_package_pmu_data *data = event_to_pmu_data(event);
1731         struct hw_perf_event *hwc = &event->hw;
1732         unsigned long flags;
1733
1734         raw_spin_lock_irqsave(&data->lock, flags);
1735
1736         hwc->state = PERF_HES_UPTODATE | PERF_HES_STOPPED;
1737
1738         if (mode & PERF_EF_START)
1739                 __rapl_pmu_event_start(event);
1740
1741         raw_spin_unlock_irqrestore(&data->lock, flags);
1742
1743         return 0;
1744 }
1745
1746 static void rapl_pmu_event_del(struct perf_event *event, int flags)
1747 {
1748         rapl_pmu_event_stop(event, PERF_EF_UPDATE);
1749 }
1750
1751 /* RAPL PMU event ids, same as shown in sysfs */
1752 enum perf_rapl_events {
1753         PERF_RAPL_PP0 = 1,      /* all cores */
1754         PERF_RAPL_PKG,          /* entire package */
1755         PERF_RAPL_RAM,          /* DRAM */
1756         PERF_RAPL_PP1,          /* gpu */
1757         PERF_RAPL_PSYS,         /* psys */
1758         PERF_RAPL_MAX
1759 };
1760 #define RAPL_EVENT_MASK GENMASK(7, 0)
1761
1762 static const int event_to_domain[PERF_RAPL_MAX] = {
1763         [PERF_RAPL_PP0]         = RAPL_DOMAIN_PP0,
1764         [PERF_RAPL_PKG]         = RAPL_DOMAIN_PACKAGE,
1765         [PERF_RAPL_RAM]         = RAPL_DOMAIN_DRAM,
1766         [PERF_RAPL_PP1]         = RAPL_DOMAIN_PP1,
1767         [PERF_RAPL_PSYS]        = RAPL_DOMAIN_PLATFORM,
1768 };
1769
1770 static int rapl_pmu_event_init(struct perf_event *event)
1771 {
1772         struct rapl_package *pos, *rp = NULL;
1773         u64 cfg = event->attr.config & RAPL_EVENT_MASK;
1774         int domain, idx;
1775
1776         /* Only look at RAPL events */
1777         if (event->attr.type != event->pmu->type)
1778                 return -ENOENT;
1779
1780         /* Check for supported events only */
1781         if (!cfg || cfg >= PERF_RAPL_MAX)
1782                 return -EINVAL;
1783
1784         if (event->cpu < 0)
1785                 return -EINVAL;
1786
1787         /* Find out which Package the event belongs to */
1788         list_for_each_entry(pos, &rapl_packages, plist) {
1789                 if (is_rp_pmu_cpu(pos, event->cpu)) {
1790                         rp = pos;
1791                         break;
1792                 }
1793         }
1794         if (!rp)
1795                 return -ENODEV;
1796
1797         /* Find out which RAPL Domain the event belongs to */
1798         domain = event_to_domain[cfg];
1799
1800         event->event_caps |= PERF_EV_CAP_READ_ACTIVE_PKG;
1801         event->pmu_private = rp;        /* Which package */
1802         event->hw.flags = domain;       /* Which domain */
1803
1804         event->hw.idx = -1;
1805         /* Find out the index in rp->domains[] to get domain pointer */
1806         for (idx = 0; idx < rp->nr_domains; idx++) {
1807                 if (rp->domains[idx].id == domain) {
1808                         event->hw.idx = idx;
1809                         break;
1810                 }
1811         }
1812
1813         return 0;
1814 }
1815
1816 static void rapl_pmu_event_read(struct perf_event *event)
1817 {
1818         rapl_event_update(event);
1819 }
1820
1821 static enum hrtimer_restart rapl_hrtimer_handle(struct hrtimer *hrtimer)
1822 {
1823         struct rapl_package_pmu_data *data =
1824                 container_of(hrtimer, struct rapl_package_pmu_data, hrtimer);
1825         struct perf_event *event;
1826         unsigned long flags;
1827
1828         if (!data->n_active)
1829                 return HRTIMER_NORESTART;
1830
1831         raw_spin_lock_irqsave(&data->lock, flags);
1832
1833         list_for_each_entry(event, &data->active_list, active_entry)
1834                 rapl_event_update(event);
1835
1836         raw_spin_unlock_irqrestore(&data->lock, flags);
1837
1838         hrtimer_forward_now(hrtimer, data->timer_interval);
1839
1840         return HRTIMER_RESTART;
1841 }
1842
1843 /* PMU sysfs attributes */
1844
1845 /*
1846  * There are no default events, but we need to create "events" group (with
1847  * empty attrs) before updating it with detected events.
1848  */
1849 static struct attribute *attrs_empty[] = {
1850         NULL,
1851 };
1852
1853 static struct attribute_group pmu_events_group = {
1854         .name = "events",
1855         .attrs = attrs_empty,
1856 };
1857
1858 static ssize_t cpumask_show(struct device *dev,
1859                             struct device_attribute *attr, char *buf)
1860 {
1861         struct rapl_package *rp;
1862         cpumask_var_t cpu_mask;
1863         int cpu;
1864         int ret;
1865
1866         if (!alloc_cpumask_var(&cpu_mask, GFP_KERNEL))
1867                 return -ENOMEM;
1868
1869         cpus_read_lock();
1870
1871         cpumask_clear(cpu_mask);
1872
1873         /* Choose a cpu for each RAPL Package */
1874         list_for_each_entry(rp, &rapl_packages, plist) {
1875                 cpu = get_pmu_cpu(rp);
1876                 if (cpu < nr_cpu_ids)
1877                         cpumask_set_cpu(cpu, cpu_mask);
1878         }
1879         cpus_read_unlock();
1880
1881         ret = cpumap_print_to_pagebuf(true, buf, cpu_mask);
1882
1883         free_cpumask_var(cpu_mask);
1884
1885         return ret;
1886 }
1887
1888 static DEVICE_ATTR_RO(cpumask);
1889
1890 static struct attribute *pmu_cpumask_attrs[] = {
1891         &dev_attr_cpumask.attr,
1892         NULL
1893 };
1894
1895 static struct attribute_group pmu_cpumask_group = {
1896         .attrs = pmu_cpumask_attrs,
1897 };
1898
1899 PMU_FORMAT_ATTR(event, "config:0-7");
1900 static struct attribute *pmu_format_attr[] = {
1901         &format_attr_event.attr,
1902         NULL
1903 };
1904
1905 static struct attribute_group pmu_format_group = {
1906         .name = "format",
1907         .attrs = pmu_format_attr,
1908 };
1909
1910 static const struct attribute_group *pmu_attr_groups[] = {
1911         &pmu_events_group,
1912         &pmu_cpumask_group,
1913         &pmu_format_group,
1914         NULL
1915 };
1916
1917 #define RAPL_EVENT_ATTR_STR(_name, v, str)                                      \
1918 static struct perf_pmu_events_attr event_attr_##v = {                           \
1919         .attr           = __ATTR(_name, 0444, perf_event_sysfs_show, NULL),     \
1920         .event_str      = str,                                                  \
1921 }
1922
1923 RAPL_EVENT_ATTR_STR(energy-cores,       rapl_cores,     "event=0x01");
1924 RAPL_EVENT_ATTR_STR(energy-pkg,         rapl_pkg,       "event=0x02");
1925 RAPL_EVENT_ATTR_STR(energy-ram,         rapl_ram,       "event=0x03");
1926 RAPL_EVENT_ATTR_STR(energy-gpu,         rapl_gpu,       "event=0x04");
1927 RAPL_EVENT_ATTR_STR(energy-psys,        rapl_psys,      "event=0x05");
1928
1929 RAPL_EVENT_ATTR_STR(energy-cores.unit,  rapl_unit_cores,        "Joules");
1930 RAPL_EVENT_ATTR_STR(energy-pkg.unit,    rapl_unit_pkg,          "Joules");
1931 RAPL_EVENT_ATTR_STR(energy-ram.unit,    rapl_unit_ram,          "Joules");
1932 RAPL_EVENT_ATTR_STR(energy-gpu.unit,    rapl_unit_gpu,          "Joules");
1933 RAPL_EVENT_ATTR_STR(energy-psys.unit,   rapl_unit_psys,         "Joules");
1934
1935 RAPL_EVENT_ATTR_STR(energy-cores.scale, rapl_scale_cores,       "2.3283064365386962890625e-10");
1936 RAPL_EVENT_ATTR_STR(energy-pkg.scale,   rapl_scale_pkg,         "2.3283064365386962890625e-10");
1937 RAPL_EVENT_ATTR_STR(energy-ram.scale,   rapl_scale_ram,         "2.3283064365386962890625e-10");
1938 RAPL_EVENT_ATTR_STR(energy-gpu.scale,   rapl_scale_gpu,         "2.3283064365386962890625e-10");
1939 RAPL_EVENT_ATTR_STR(energy-psys.scale,  rapl_scale_psys,        "2.3283064365386962890625e-10");
1940
1941 #define RAPL_EVENT_GROUP(_name, domain)                 \
1942 static struct attribute *pmu_attr_##_name[] = {         \
1943         &event_attr_rapl_##_name.attr.attr,             \
1944         &event_attr_rapl_unit_##_name.attr.attr,        \
1945         &event_attr_rapl_scale_##_name.attr.attr,       \
1946         NULL                                            \
1947 };                                                      \
1948 static umode_t is_visible_##_name(struct kobject *kobj, struct attribute *attr, int event)      \
1949 {                                                                                       \
1950         return rapl_pmu.domain_map & BIT(domain) ? attr->mode : 0;      \
1951 }                                                       \
1952 static struct attribute_group pmu_group_##_name = {     \
1953         .name  = "events",                              \
1954         .attrs = pmu_attr_##_name,                      \
1955         .is_visible = is_visible_##_name,               \
1956 }
1957
1958 RAPL_EVENT_GROUP(cores, RAPL_DOMAIN_PP0);
1959 RAPL_EVENT_GROUP(pkg,   RAPL_DOMAIN_PACKAGE);
1960 RAPL_EVENT_GROUP(ram,   RAPL_DOMAIN_DRAM);
1961 RAPL_EVENT_GROUP(gpu,   RAPL_DOMAIN_PP1);
1962 RAPL_EVENT_GROUP(psys,  RAPL_DOMAIN_PLATFORM);
1963
1964 static const struct attribute_group *pmu_attr_update[] = {
1965         &pmu_group_cores,
1966         &pmu_group_pkg,
1967         &pmu_group_ram,
1968         &pmu_group_gpu,
1969         &pmu_group_psys,
1970         NULL
1971 };
1972
1973 static int rapl_pmu_update(struct rapl_package *rp)
1974 {
1975         int ret = 0;
1976
1977         /* Return if PMU already covers all events supported by current RAPL Package */
1978         if (rapl_pmu.registered && !(rp->domain_map & (~rapl_pmu.domain_map)))
1979                 goto end;
1980
1981         /* Unregister previous registered PMU */
1982         if (rapl_pmu.registered)
1983                 perf_pmu_unregister(&rapl_pmu.pmu);
1984
1985         rapl_pmu.registered = false;
1986         rapl_pmu.domain_map |= rp->domain_map;
1987
1988         memset(&rapl_pmu.pmu, 0, sizeof(struct pmu));
1989         rapl_pmu.pmu.attr_groups = pmu_attr_groups;
1990         rapl_pmu.pmu.attr_update = pmu_attr_update;
1991         rapl_pmu.pmu.task_ctx_nr = perf_invalid_context;
1992         rapl_pmu.pmu.event_init = rapl_pmu_event_init;
1993         rapl_pmu.pmu.add = rapl_pmu_event_add;
1994         rapl_pmu.pmu.del = rapl_pmu_event_del;
1995         rapl_pmu.pmu.start = rapl_pmu_event_start;
1996         rapl_pmu.pmu.stop = rapl_pmu_event_stop;
1997         rapl_pmu.pmu.read = rapl_pmu_event_read;
1998         rapl_pmu.pmu.module = THIS_MODULE;
1999         rapl_pmu.pmu.capabilities = PERF_PMU_CAP_NO_EXCLUDE | PERF_PMU_CAP_NO_INTERRUPT;
2000         ret = perf_pmu_register(&rapl_pmu.pmu, "power", -1);
2001         if (ret) {
2002                 pr_info("Failed to register PMU\n");
2003                 return ret;
2004         }
2005
2006         rapl_pmu.registered = true;
2007 end:
2008         rp->has_pmu = true;
2009         return ret;
2010 }
2011
2012 int rapl_package_add_pmu(struct rapl_package *rp)
2013 {
2014         struct rapl_package_pmu_data *data = &rp->pmu_data;
2015         int idx;
2016
2017         if (rp->has_pmu)
2018                 return -EEXIST;
2019
2020         guard(cpus_read_lock)();
2021
2022         for (idx = 0; idx < rp->nr_domains; idx++) {
2023                 struct rapl_domain *rd = &rp->domains[idx];
2024                 int domain = rd->id;
2025                 u64 val;
2026
2027                 if (!test_bit(domain, &rp->domain_map))
2028                         continue;
2029
2030                 /*
2031                  * The RAPL PMU granularity is 2^-32 Joules
2032                  * data->scale[]: times of 2^-32 Joules for each ENERGY COUNTER increase
2033                  */
2034                 val = rd->energy_unit * (1ULL << 32);
2035                 do_div(val, ENERGY_UNIT_SCALE * 1000000);
2036                 data->scale[domain] = val;
2037
2038                 if (!rapl_pmu.timer_ms) {
2039                         struct rapl_primitive_info *rpi = get_rpi(rp, ENERGY_COUNTER);
2040
2041                         /*
2042                          * Calculate the timer rate:
2043                          * Use reference of 200W for scaling the timeout to avoid counter
2044                          * overflows.
2045                          *
2046                          * max_count = rpi->mask >> rpi->shift + 1
2047                          * max_energy_pj = max_count * rd->energy_unit
2048                          * max_time_sec = (max_energy_pj / 1000000000) / 200w
2049                          *
2050                          * rapl_pmu.timer_ms = max_time_sec * 1000 / 2
2051                          */
2052                         val = (rpi->mask >> rpi->shift) + 1;
2053                         val *= rd->energy_unit;
2054                         do_div(val, 1000000 * 200 * 2);
2055                         rapl_pmu.timer_ms = val;
2056
2057                         pr_debug("%llu ms overflow timer\n", rapl_pmu.timer_ms);
2058                 }
2059
2060                 pr_debug("Domain %s: hw unit %lld * 2^-32 Joules\n", rd->name, data->scale[domain]);
2061         }
2062
2063         /* Initialize per package PMU data */
2064         raw_spin_lock_init(&data->lock);
2065         INIT_LIST_HEAD(&data->active_list);
2066         data->timer_interval = ms_to_ktime(rapl_pmu.timer_ms);
2067         hrtimer_init(&data->hrtimer, CLOCK_MONOTONIC, HRTIMER_MODE_REL);
2068         data->hrtimer.function = rapl_hrtimer_handle;
2069
2070         return rapl_pmu_update(rp);
2071 }
2072 EXPORT_SYMBOL_GPL(rapl_package_add_pmu);
2073
2074 void rapl_package_remove_pmu(struct rapl_package *rp)
2075 {
2076         struct rapl_package *pos;
2077
2078         if (!rp->has_pmu)
2079                 return;
2080
2081         guard(cpus_read_lock)();
2082
2083         list_for_each_entry(pos, &rapl_packages, plist) {
2084                 /* PMU is still needed */
2085                 if (pos->has_pmu && pos != rp)
2086                         return;
2087         }
2088
2089         perf_pmu_unregister(&rapl_pmu.pmu);
2090         memset(&rapl_pmu, 0, sizeof(struct rapl_pmu));
2091 }
2092 EXPORT_SYMBOL_GPL(rapl_package_remove_pmu);
2093 #endif
2094
2095 /* called from CPU hotplug notifier, hotplug lock held */
2096 void rapl_remove_package_cpuslocked(struct rapl_package *rp)
2097 {
2098         struct rapl_domain *rd, *rd_package = NULL;
2099
2100         package_power_limit_irq_restore(rp);
2101
2102         for (rd = rp->domains; rd < rp->domains + rp->nr_domains; rd++) {
2103                 int i;
2104
2105                 for (i = POWER_LIMIT1; i < NR_POWER_LIMITS; i++) {
2106                         rapl_write_pl_data(rd, i, PL_ENABLE, 0);
2107                         rapl_write_pl_data(rd, i, PL_CLAMP, 0);
2108                 }
2109
2110                 if (rd->id == RAPL_DOMAIN_PACKAGE) {
2111                         rd_package = rd;
2112                         continue;
2113                 }
2114                 pr_debug("remove package, undo power limit on %s: %s\n",
2115                          rp->name, rd->name);
2116                 powercap_unregister_zone(rp->priv->control_type,
2117                                          &rd->power_zone);
2118         }
2119         /* do parent zone last */
2120         powercap_unregister_zone(rp->priv->control_type,
2121                                  &rd_package->power_zone);
2122         list_del(&rp->plist);
2123         kfree(rp);
2124 }
2125 EXPORT_SYMBOL_GPL(rapl_remove_package_cpuslocked);
2126
2127 void rapl_remove_package(struct rapl_package *rp)
2128 {
2129         guard(cpus_read_lock)();
2130         rapl_remove_package_cpuslocked(rp);
2131 }
2132 EXPORT_SYMBOL_GPL(rapl_remove_package);
2133
2134 /*
2135  * RAPL Package energy counter scope:
2136  * 1. AMD/HYGON platforms use per-PKG package energy counter
2137  * 2. For Intel platforms
2138  *      2.1 CLX-AP platform has per-DIE package energy counter
2139  *      2.2 Other platforms that uses MSR RAPL are single die systems so the
2140  *          package energy counter can be considered as per-PKG/per-DIE,
2141  *          here it is considered as per-DIE.
2142  *      2.3 New platforms that use TPMI RAPL doesn't care about the
2143  *          scope because they are not MSR/CPU based.
2144  */
2145 #define rapl_msrs_are_pkg_scope()                               \
2146         (boot_cpu_data.x86_vendor == X86_VENDOR_AMD ||  \
2147          boot_cpu_data.x86_vendor == X86_VENDOR_HYGON)
2148
2149 /* caller to ensure CPU hotplug lock is held */
2150 struct rapl_package *rapl_find_package_domain_cpuslocked(int id, struct rapl_if_priv *priv,
2151                                                          bool id_is_cpu)
2152 {
2153         struct rapl_package *rp;
2154         int uid;
2155
2156         if (id_is_cpu) {
2157                 uid = rapl_msrs_are_pkg_scope() ?
2158                       topology_physical_package_id(id) : topology_logical_die_id(id);
2159                 if (uid < 0) {
2160                         pr_err("topology_logical_(package/die)_id() returned a negative value");
2161                         return NULL;
2162                 }
2163         }
2164         else
2165                 uid = id;
2166
2167         list_for_each_entry(rp, &rapl_packages, plist) {
2168                 if (rp->id == uid
2169                     && rp->priv->control_type == priv->control_type)
2170                         return rp;
2171         }
2172
2173         return NULL;
2174 }
2175 EXPORT_SYMBOL_GPL(rapl_find_package_domain_cpuslocked);
2176
2177 struct rapl_package *rapl_find_package_domain(int id, struct rapl_if_priv *priv, bool id_is_cpu)
2178 {
2179         guard(cpus_read_lock)();
2180         return rapl_find_package_domain_cpuslocked(id, priv, id_is_cpu);
2181 }
2182 EXPORT_SYMBOL_GPL(rapl_find_package_domain);
2183
2184 /* called from CPU hotplug notifier, hotplug lock held */
2185 struct rapl_package *rapl_add_package_cpuslocked(int id, struct rapl_if_priv *priv, bool id_is_cpu)
2186 {
2187         struct rapl_package *rp;
2188         int ret;
2189
2190         rp = kzalloc(sizeof(struct rapl_package), GFP_KERNEL);
2191         if (!rp)
2192                 return ERR_PTR(-ENOMEM);
2193
2194         if (id_is_cpu) {
2195                 rp->id = rapl_msrs_are_pkg_scope() ?
2196                          topology_physical_package_id(id) : topology_logical_die_id(id);
2197                 if ((int)(rp->id) < 0) {
2198                         pr_err("topology_logical_(package/die)_id() returned a negative value");
2199                         return ERR_PTR(-EINVAL);
2200                 }
2201                 rp->lead_cpu = id;
2202                 if (!rapl_msrs_are_pkg_scope() && topology_max_dies_per_package() > 1)
2203                         snprintf(rp->name, PACKAGE_DOMAIN_NAME_LENGTH, "package-%d-die-%d",
2204                                  topology_physical_package_id(id), topology_die_id(id));
2205                 else
2206                         snprintf(rp->name, PACKAGE_DOMAIN_NAME_LENGTH, "package-%d",
2207                                  topology_physical_package_id(id));
2208         } else {
2209                 rp->id = id;
2210                 rp->lead_cpu = -1;
2211                 snprintf(rp->name, PACKAGE_DOMAIN_NAME_LENGTH, "package-%d", id);
2212         }
2213
2214         rp->priv = priv;
2215         ret = rapl_config(rp);
2216         if (ret)
2217                 goto err_free_package;
2218
2219         /* check if the package contains valid domains */
2220         if (rapl_detect_domains(rp)) {
2221                 ret = -ENODEV;
2222                 goto err_free_package;
2223         }
2224         ret = rapl_package_register_powercap(rp);
2225         if (!ret) {
2226                 INIT_LIST_HEAD(&rp->plist);
2227                 list_add(&rp->plist, &rapl_packages);
2228                 return rp;
2229         }
2230
2231 err_free_package:
2232         kfree(rp->domains);
2233         kfree(rp);
2234         return ERR_PTR(ret);
2235 }
2236 EXPORT_SYMBOL_GPL(rapl_add_package_cpuslocked);
2237
2238 struct rapl_package *rapl_add_package(int id, struct rapl_if_priv *priv, bool id_is_cpu)
2239 {
2240         guard(cpus_read_lock)();
2241         return rapl_add_package_cpuslocked(id, priv, id_is_cpu);
2242 }
2243 EXPORT_SYMBOL_GPL(rapl_add_package);
2244
2245 static void power_limit_state_save(void)
2246 {
2247         struct rapl_package *rp;
2248         struct rapl_domain *rd;
2249         int ret, i;
2250
2251         cpus_read_lock();
2252         list_for_each_entry(rp, &rapl_packages, plist) {
2253                 if (!rp->power_zone)
2254                         continue;
2255                 rd = power_zone_to_rapl_domain(rp->power_zone);
2256                 for (i = POWER_LIMIT1; i < NR_POWER_LIMITS; i++) {
2257                         ret = rapl_read_pl_data(rd, i, PL_LIMIT, true,
2258                                                  &rd->rpl[i].last_power_limit);
2259                         if (ret)
2260                                 rd->rpl[i].last_power_limit = 0;
2261                 }
2262         }
2263         cpus_read_unlock();
2264 }
2265
2266 static void power_limit_state_restore(void)
2267 {
2268         struct rapl_package *rp;
2269         struct rapl_domain *rd;
2270         int i;
2271
2272         cpus_read_lock();
2273         list_for_each_entry(rp, &rapl_packages, plist) {
2274                 if (!rp->power_zone)
2275                         continue;
2276                 rd = power_zone_to_rapl_domain(rp->power_zone);
2277                 for (i = POWER_LIMIT1; i < NR_POWER_LIMITS; i++)
2278                         if (rd->rpl[i].last_power_limit)
2279                                 rapl_write_pl_data(rd, i, PL_LIMIT,
2280                                                rd->rpl[i].last_power_limit);
2281         }
2282         cpus_read_unlock();
2283 }
2284
2285 static int rapl_pm_callback(struct notifier_block *nb,
2286                             unsigned long mode, void *_unused)
2287 {
2288         switch (mode) {
2289         case PM_SUSPEND_PREPARE:
2290                 power_limit_state_save();
2291                 break;
2292         case PM_POST_SUSPEND:
2293                 power_limit_state_restore();
2294                 break;
2295         }
2296         return NOTIFY_OK;
2297 }
2298
2299 static struct notifier_block rapl_pm_notifier = {
2300         .notifier_call = rapl_pm_callback,
2301 };
2302
2303 static struct platform_device *rapl_msr_platdev;
2304
2305 static int __init rapl_init(void)
2306 {
2307         const struct x86_cpu_id *id;
2308         int ret;
2309
2310         id = x86_match_cpu(rapl_ids);
2311         if (id) {
2312                 defaults_msr = (struct rapl_defaults *)id->driver_data;
2313
2314                 rapl_msr_platdev = platform_device_alloc("intel_rapl_msr", 0);
2315                 if (!rapl_msr_platdev)
2316                         return -ENOMEM;
2317
2318                 ret = platform_device_add(rapl_msr_platdev);
2319                 if (ret) {
2320                         platform_device_put(rapl_msr_platdev);
2321                         return ret;
2322                 }
2323         }
2324
2325         ret = register_pm_notifier(&rapl_pm_notifier);
2326         if (ret && rapl_msr_platdev) {
2327                 platform_device_del(rapl_msr_platdev);
2328                 platform_device_put(rapl_msr_platdev);
2329         }
2330
2331         return ret;
2332 }
2333
2334 static void __exit rapl_exit(void)
2335 {
2336         platform_device_unregister(rapl_msr_platdev);
2337         unregister_pm_notifier(&rapl_pm_notifier);
2338 }
2339
2340 fs_initcall(rapl_init);
2341 module_exit(rapl_exit);
2342
2343 MODULE_DESCRIPTION("Intel Runtime Average Power Limit (RAPL) common code");
2344 MODULE_AUTHOR("Jacob Pan <[email protected]>");
2345 MODULE_LICENSE("GPL v2");
This page took 0.162494 seconds and 4 git commands to generate.