]> Git Repo - linux.git/blob - include/vdso/math64.h
Merge patch series "riscv: Extension parsing fixes"
[linux.git] / include / vdso / math64.h
1 /* SPDX-License-Identifier: GPL-2.0 */
2 #ifndef __VDSO_MATH64_H
3 #define __VDSO_MATH64_H
4
5 static __always_inline u32
6 __iter_div_u64_rem(u64 dividend, u32 divisor, u64 *remainder)
7 {
8         u32 ret = 0;
9
10         while (dividend >= divisor) {
11                 /* The following asm() prevents the compiler from
12                    optimising this loop into a modulo operation.  */
13                 asm("" : "+rm"(dividend));
14
15                 dividend -= divisor;
16                 ret++;
17         }
18
19         *remainder = dividend;
20
21         return ret;
22 }
23
24 #if defined(CONFIG_ARCH_SUPPORTS_INT128) && defined(__SIZEOF_INT128__)
25
26 #ifndef mul_u64_u32_add_u64_shr
27 static __always_inline u64 mul_u64_u32_add_u64_shr(u64 a, u32 mul, u64 b, unsigned int shift)
28 {
29         return (u64)((((unsigned __int128)a * mul) + b) >> shift);
30 }
31 #endif /* mul_u64_u32_add_u64_shr */
32
33 #else
34
35 #ifndef mul_u64_u32_add_u64_shr
36 #ifndef mul_u32_u32
37 static inline u64 mul_u32_u32(u32 a, u32 b)
38 {
39         return (u64)a * b;
40 }
41 #define mul_u32_u32 mul_u32_u32
42 #endif
43 static __always_inline u64 mul_u64_u32_add_u64_shr(u64 a, u32 mul, u64 b, unsigned int shift)
44 {
45         u32 ah = a >> 32, al = a;
46         bool ovf;
47         u64 ret;
48
49         ovf = __builtin_add_overflow(mul_u32_u32(al, mul), b, &ret);
50         ret >>= shift;
51         if (ovf && shift)
52                 ret += 1ULL << (64 - shift);
53         if (ah)
54                 ret += mul_u32_u32(ah, mul) << (32 - shift);
55
56         return ret;
57 }
58 #endif /* mul_u64_u32_add_u64_shr */
59
60 #endif
61
62 #endif /* __VDSO_MATH64_H */
This page took 0.034024 seconds and 4 git commands to generate.