]> Git Repo - qemu.git/blob - target-arm/translate-a64.c
target-arm: A64: Implement SIMD scalar indexed instructions
[qemu.git] / target-arm / translate-a64.c
1 /*
2  *  AArch64 translation
3  *
4  *  Copyright (c) 2013 Alexander Graf <[email protected]>
5  *
6  * This library is free software; you can redistribute it and/or
7  * modify it under the terms of the GNU Lesser General Public
8  * License as published by the Free Software Foundation; either
9  * version 2 of the License, or (at your option) any later version.
10  *
11  * This library is distributed in the hope that it will be useful,
12  * but WITHOUT ANY WARRANTY; without even the implied warranty of
13  * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the GNU
14  * Lesser General Public License for more details.
15  *
16  * You should have received a copy of the GNU Lesser General Public
17  * License along with this library; if not, see <http://www.gnu.org/licenses/>.
18  */
19 #include <stdarg.h>
20 #include <stdlib.h>
21 #include <stdio.h>
22 #include <string.h>
23 #include <inttypes.h>
24
25 #include "cpu.h"
26 #include "tcg-op.h"
27 #include "qemu/log.h"
28 #include "translate.h"
29 #include "qemu/host-utils.h"
30
31 #include "exec/gen-icount.h"
32
33 #include "helper.h"
34 #define GEN_HELPER 1
35 #include "helper.h"
36
37 static TCGv_i64 cpu_X[32];
38 static TCGv_i64 cpu_pc;
39 static TCGv_i32 cpu_NF, cpu_ZF, cpu_CF, cpu_VF;
40
41 /* Load/store exclusive handling */
42 static TCGv_i64 cpu_exclusive_addr;
43 static TCGv_i64 cpu_exclusive_val;
44 static TCGv_i64 cpu_exclusive_high;
45 #ifdef CONFIG_USER_ONLY
46 static TCGv_i64 cpu_exclusive_test;
47 static TCGv_i32 cpu_exclusive_info;
48 #endif
49
50 static const char *regnames[] = {
51     "x0", "x1", "x2", "x3", "x4", "x5", "x6", "x7",
52     "x8", "x9", "x10", "x11", "x12", "x13", "x14", "x15",
53     "x16", "x17", "x18", "x19", "x20", "x21", "x22", "x23",
54     "x24", "x25", "x26", "x27", "x28", "x29", "lr", "sp"
55 };
56
57 enum a64_shift_type {
58     A64_SHIFT_TYPE_LSL = 0,
59     A64_SHIFT_TYPE_LSR = 1,
60     A64_SHIFT_TYPE_ASR = 2,
61     A64_SHIFT_TYPE_ROR = 3
62 };
63
64 /* Table based decoder typedefs - used when the relevant bits for decode
65  * are too awkwardly scattered across the instruction (eg SIMD).
66  */
67 typedef void AArch64DecodeFn(DisasContext *s, uint32_t insn);
68
69 typedef struct AArch64DecodeTable {
70     uint32_t pattern;
71     uint32_t mask;
72     AArch64DecodeFn *disas_fn;
73 } AArch64DecodeTable;
74
75 /* Function prototype for gen_ functions for calling Neon helpers */
76 typedef void NeonGenTwoOpFn(TCGv_i32, TCGv_i32, TCGv_i32);
77 typedef void NeonGenTwoOpEnvFn(TCGv_i32, TCGv_ptr, TCGv_i32, TCGv_i32);
78 typedef void NeonGenNarrowFn(TCGv_i32, TCGv_i64);
79 typedef void NeonGenNarrowEnvFn(TCGv_i32, TCGv_ptr, TCGv_i64);
80
81 /* initialize TCG globals.  */
82 void a64_translate_init(void)
83 {
84     int i;
85
86     cpu_pc = tcg_global_mem_new_i64(TCG_AREG0,
87                                     offsetof(CPUARMState, pc),
88                                     "pc");
89     for (i = 0; i < 32; i++) {
90         cpu_X[i] = tcg_global_mem_new_i64(TCG_AREG0,
91                                           offsetof(CPUARMState, xregs[i]),
92                                           regnames[i]);
93     }
94
95     cpu_NF = tcg_global_mem_new_i32(TCG_AREG0, offsetof(CPUARMState, NF), "NF");
96     cpu_ZF = tcg_global_mem_new_i32(TCG_AREG0, offsetof(CPUARMState, ZF), "ZF");
97     cpu_CF = tcg_global_mem_new_i32(TCG_AREG0, offsetof(CPUARMState, CF), "CF");
98     cpu_VF = tcg_global_mem_new_i32(TCG_AREG0, offsetof(CPUARMState, VF), "VF");
99
100     cpu_exclusive_addr = tcg_global_mem_new_i64(TCG_AREG0,
101         offsetof(CPUARMState, exclusive_addr), "exclusive_addr");
102     cpu_exclusive_val = tcg_global_mem_new_i64(TCG_AREG0,
103         offsetof(CPUARMState, exclusive_val), "exclusive_val");
104     cpu_exclusive_high = tcg_global_mem_new_i64(TCG_AREG0,
105         offsetof(CPUARMState, exclusive_high), "exclusive_high");
106 #ifdef CONFIG_USER_ONLY
107     cpu_exclusive_test = tcg_global_mem_new_i64(TCG_AREG0,
108         offsetof(CPUARMState, exclusive_test), "exclusive_test");
109     cpu_exclusive_info = tcg_global_mem_new_i32(TCG_AREG0,
110         offsetof(CPUARMState, exclusive_info), "exclusive_info");
111 #endif
112 }
113
114 void aarch64_cpu_dump_state(CPUState *cs, FILE *f,
115                             fprintf_function cpu_fprintf, int flags)
116 {
117     ARMCPU *cpu = ARM_CPU(cs);
118     CPUARMState *env = &cpu->env;
119     uint32_t psr = pstate_read(env);
120     int i;
121
122     cpu_fprintf(f, "PC=%016"PRIx64"  SP=%016"PRIx64"\n",
123             env->pc, env->xregs[31]);
124     for (i = 0; i < 31; i++) {
125         cpu_fprintf(f, "X%02d=%016"PRIx64, i, env->xregs[i]);
126         if ((i % 4) == 3) {
127             cpu_fprintf(f, "\n");
128         } else {
129             cpu_fprintf(f, " ");
130         }
131     }
132     cpu_fprintf(f, "PSTATE=%08x (flags %c%c%c%c)\n",
133                 psr,
134                 psr & PSTATE_N ? 'N' : '-',
135                 psr & PSTATE_Z ? 'Z' : '-',
136                 psr & PSTATE_C ? 'C' : '-',
137                 psr & PSTATE_V ? 'V' : '-');
138     cpu_fprintf(f, "\n");
139
140     if (flags & CPU_DUMP_FPU) {
141         int numvfpregs = 32;
142         for (i = 0; i < numvfpregs; i += 2) {
143             uint64_t vlo = float64_val(env->vfp.regs[i * 2]);
144             uint64_t vhi = float64_val(env->vfp.regs[(i * 2) + 1]);
145             cpu_fprintf(f, "q%02d=%016" PRIx64 ":%016" PRIx64 " ",
146                         i, vhi, vlo);
147             vlo = float64_val(env->vfp.regs[(i + 1) * 2]);
148             vhi = float64_val(env->vfp.regs[((i + 1) * 2) + 1]);
149             cpu_fprintf(f, "q%02d=%016" PRIx64 ":%016" PRIx64 "\n",
150                         i + 1, vhi, vlo);
151         }
152         cpu_fprintf(f, "FPCR: %08x  FPSR: %08x\n",
153                     vfp_get_fpcr(env), vfp_get_fpsr(env));
154     }
155 }
156
157 static int get_mem_index(DisasContext *s)
158 {
159 #ifdef CONFIG_USER_ONLY
160     return 1;
161 #else
162     return s->user;
163 #endif
164 }
165
166 void gen_a64_set_pc_im(uint64_t val)
167 {
168     tcg_gen_movi_i64(cpu_pc, val);
169 }
170
171 static void gen_exception(int excp)
172 {
173     TCGv_i32 tmp = tcg_temp_new_i32();
174     tcg_gen_movi_i32(tmp, excp);
175     gen_helper_exception(cpu_env, tmp);
176     tcg_temp_free_i32(tmp);
177 }
178
179 static void gen_exception_insn(DisasContext *s, int offset, int excp)
180 {
181     gen_a64_set_pc_im(s->pc - offset);
182     gen_exception(excp);
183     s->is_jmp = DISAS_EXC;
184 }
185
186 static inline bool use_goto_tb(DisasContext *s, int n, uint64_t dest)
187 {
188     /* No direct tb linking with singlestep or deterministic io */
189     if (s->singlestep_enabled || (s->tb->cflags & CF_LAST_IO)) {
190         return false;
191     }
192
193     /* Only link tbs from inside the same guest page */
194     if ((s->tb->pc & TARGET_PAGE_MASK) != (dest & TARGET_PAGE_MASK)) {
195         return false;
196     }
197
198     return true;
199 }
200
201 static inline void gen_goto_tb(DisasContext *s, int n, uint64_t dest)
202 {
203     TranslationBlock *tb;
204
205     tb = s->tb;
206     if (use_goto_tb(s, n, dest)) {
207         tcg_gen_goto_tb(n);
208         gen_a64_set_pc_im(dest);
209         tcg_gen_exit_tb((tcg_target_long)tb + n);
210         s->is_jmp = DISAS_TB_JUMP;
211     } else {
212         gen_a64_set_pc_im(dest);
213         if (s->singlestep_enabled) {
214             gen_exception(EXCP_DEBUG);
215         }
216         tcg_gen_exit_tb(0);
217         s->is_jmp = DISAS_JUMP;
218     }
219 }
220
221 static void unallocated_encoding(DisasContext *s)
222 {
223     gen_exception_insn(s, 4, EXCP_UDEF);
224 }
225
226 #define unsupported_encoding(s, insn)                                    \
227     do {                                                                 \
228         qemu_log_mask(LOG_UNIMP,                                         \
229                       "%s:%d: unsupported instruction encoding 0x%08x "  \
230                       "at pc=%016" PRIx64 "\n",                          \
231                       __FILE__, __LINE__, insn, s->pc - 4);              \
232         unallocated_encoding(s);                                         \
233     } while (0);
234
235 static void init_tmp_a64_array(DisasContext *s)
236 {
237 #ifdef CONFIG_DEBUG_TCG
238     int i;
239     for (i = 0; i < ARRAY_SIZE(s->tmp_a64); i++) {
240         TCGV_UNUSED_I64(s->tmp_a64[i]);
241     }
242 #endif
243     s->tmp_a64_count = 0;
244 }
245
246 static void free_tmp_a64(DisasContext *s)
247 {
248     int i;
249     for (i = 0; i < s->tmp_a64_count; i++) {
250         tcg_temp_free_i64(s->tmp_a64[i]);
251     }
252     init_tmp_a64_array(s);
253 }
254
255 static TCGv_i64 new_tmp_a64(DisasContext *s)
256 {
257     assert(s->tmp_a64_count < TMP_A64_MAX);
258     return s->tmp_a64[s->tmp_a64_count++] = tcg_temp_new_i64();
259 }
260
261 static TCGv_i64 new_tmp_a64_zero(DisasContext *s)
262 {
263     TCGv_i64 t = new_tmp_a64(s);
264     tcg_gen_movi_i64(t, 0);
265     return t;
266 }
267
268 /*
269  * Register access functions
270  *
271  * These functions are used for directly accessing a register in where
272  * changes to the final register value are likely to be made. If you
273  * need to use a register for temporary calculation (e.g. index type
274  * operations) use the read_* form.
275  *
276  * B1.2.1 Register mappings
277  *
278  * In instruction register encoding 31 can refer to ZR (zero register) or
279  * the SP (stack pointer) depending on context. In QEMU's case we map SP
280  * to cpu_X[31] and ZR accesses to a temporary which can be discarded.
281  * This is the point of the _sp forms.
282  */
283 static TCGv_i64 cpu_reg(DisasContext *s, int reg)
284 {
285     if (reg == 31) {
286         return new_tmp_a64_zero(s);
287     } else {
288         return cpu_X[reg];
289     }
290 }
291
292 /* register access for when 31 == SP */
293 static TCGv_i64 cpu_reg_sp(DisasContext *s, int reg)
294 {
295     return cpu_X[reg];
296 }
297
298 /* read a cpu register in 32bit/64bit mode. Returns a TCGv_i64
299  * representing the register contents. This TCGv is an auto-freed
300  * temporary so it need not be explicitly freed, and may be modified.
301  */
302 static TCGv_i64 read_cpu_reg(DisasContext *s, int reg, int sf)
303 {
304     TCGv_i64 v = new_tmp_a64(s);
305     if (reg != 31) {
306         if (sf) {
307             tcg_gen_mov_i64(v, cpu_X[reg]);
308         } else {
309             tcg_gen_ext32u_i64(v, cpu_X[reg]);
310         }
311     } else {
312         tcg_gen_movi_i64(v, 0);
313     }
314     return v;
315 }
316
317 static TCGv_i64 read_cpu_reg_sp(DisasContext *s, int reg, int sf)
318 {
319     TCGv_i64 v = new_tmp_a64(s);
320     if (sf) {
321         tcg_gen_mov_i64(v, cpu_X[reg]);
322     } else {
323         tcg_gen_ext32u_i64(v, cpu_X[reg]);
324     }
325     return v;
326 }
327
328 /* Return the offset into CPUARMState of an element of specified
329  * size, 'element' places in from the least significant end of
330  * the FP/vector register Qn.
331  */
332 static inline int vec_reg_offset(int regno, int element, TCGMemOp size)
333 {
334     int offs = offsetof(CPUARMState, vfp.regs[regno * 2]);
335 #ifdef HOST_WORDS_BIGENDIAN
336     /* This is complicated slightly because vfp.regs[2n] is
337      * still the low half and  vfp.regs[2n+1] the high half
338      * of the 128 bit vector, even on big endian systems.
339      * Calculate the offset assuming a fully bigendian 128 bits,
340      * then XOR to account for the order of the two 64 bit halves.
341      */
342     offs += (16 - ((element + 1) * (1 << size)));
343     offs ^= 8;
344 #else
345     offs += element * (1 << size);
346 #endif
347     return offs;
348 }
349
350 /* Return the offset into CPUARMState of a slice (from
351  * the least significant end) of FP register Qn (ie
352  * Dn, Sn, Hn or Bn).
353  * (Note that this is not the same mapping as for A32; see cpu.h)
354  */
355 static inline int fp_reg_offset(int regno, TCGMemOp size)
356 {
357     int offs = offsetof(CPUARMState, vfp.regs[regno * 2]);
358 #ifdef HOST_WORDS_BIGENDIAN
359     offs += (8 - (1 << size));
360 #endif
361     return offs;
362 }
363
364 /* Offset of the high half of the 128 bit vector Qn */
365 static inline int fp_reg_hi_offset(int regno)
366 {
367     return offsetof(CPUARMState, vfp.regs[regno * 2 + 1]);
368 }
369
370 /* Convenience accessors for reading and writing single and double
371  * FP registers. Writing clears the upper parts of the associated
372  * 128 bit vector register, as required by the architecture.
373  * Note that unlike the GP register accessors, the values returned
374  * by the read functions must be manually freed.
375  */
376 static TCGv_i64 read_fp_dreg(DisasContext *s, int reg)
377 {
378     TCGv_i64 v = tcg_temp_new_i64();
379
380     tcg_gen_ld_i64(v, cpu_env, fp_reg_offset(reg, MO_64));
381     return v;
382 }
383
384 static TCGv_i32 read_fp_sreg(DisasContext *s, int reg)
385 {
386     TCGv_i32 v = tcg_temp_new_i32();
387
388     tcg_gen_ld_i32(v, cpu_env, fp_reg_offset(reg, MO_32));
389     return v;
390 }
391
392 static void write_fp_dreg(DisasContext *s, int reg, TCGv_i64 v)
393 {
394     TCGv_i64 tcg_zero = tcg_const_i64(0);
395
396     tcg_gen_st_i64(v, cpu_env, fp_reg_offset(reg, MO_64));
397     tcg_gen_st_i64(tcg_zero, cpu_env, fp_reg_hi_offset(reg));
398     tcg_temp_free_i64(tcg_zero);
399 }
400
401 static void write_fp_sreg(DisasContext *s, int reg, TCGv_i32 v)
402 {
403     TCGv_i64 tmp = tcg_temp_new_i64();
404
405     tcg_gen_extu_i32_i64(tmp, v);
406     write_fp_dreg(s, reg, tmp);
407     tcg_temp_free_i64(tmp);
408 }
409
410 static TCGv_ptr get_fpstatus_ptr(void)
411 {
412     TCGv_ptr statusptr = tcg_temp_new_ptr();
413     int offset;
414
415     /* In A64 all instructions (both FP and Neon) use the FPCR;
416      * there is no equivalent of the A32 Neon "standard FPSCR value"
417      * and all operations use vfp.fp_status.
418      */
419     offset = offsetof(CPUARMState, vfp.fp_status);
420     tcg_gen_addi_ptr(statusptr, cpu_env, offset);
421     return statusptr;
422 }
423
424 /* Set ZF and NF based on a 64 bit result. This is alas fiddlier
425  * than the 32 bit equivalent.
426  */
427 static inline void gen_set_NZ64(TCGv_i64 result)
428 {
429     TCGv_i64 flag = tcg_temp_new_i64();
430
431     tcg_gen_setcondi_i64(TCG_COND_NE, flag, result, 0);
432     tcg_gen_trunc_i64_i32(cpu_ZF, flag);
433     tcg_gen_shri_i64(flag, result, 32);
434     tcg_gen_trunc_i64_i32(cpu_NF, flag);
435     tcg_temp_free_i64(flag);
436 }
437
438 /* Set NZCV as for a logical operation: NZ as per result, CV cleared. */
439 static inline void gen_logic_CC(int sf, TCGv_i64 result)
440 {
441     if (sf) {
442         gen_set_NZ64(result);
443     } else {
444         tcg_gen_trunc_i64_i32(cpu_ZF, result);
445         tcg_gen_trunc_i64_i32(cpu_NF, result);
446     }
447     tcg_gen_movi_i32(cpu_CF, 0);
448     tcg_gen_movi_i32(cpu_VF, 0);
449 }
450
451 /* dest = T0 + T1; compute C, N, V and Z flags */
452 static void gen_add_CC(int sf, TCGv_i64 dest, TCGv_i64 t0, TCGv_i64 t1)
453 {
454     if (sf) {
455         TCGv_i64 result, flag, tmp;
456         result = tcg_temp_new_i64();
457         flag = tcg_temp_new_i64();
458         tmp = tcg_temp_new_i64();
459
460         tcg_gen_movi_i64(tmp, 0);
461         tcg_gen_add2_i64(result, flag, t0, tmp, t1, tmp);
462
463         tcg_gen_trunc_i64_i32(cpu_CF, flag);
464
465         gen_set_NZ64(result);
466
467         tcg_gen_xor_i64(flag, result, t0);
468         tcg_gen_xor_i64(tmp, t0, t1);
469         tcg_gen_andc_i64(flag, flag, tmp);
470         tcg_temp_free_i64(tmp);
471         tcg_gen_shri_i64(flag, flag, 32);
472         tcg_gen_trunc_i64_i32(cpu_VF, flag);
473
474         tcg_gen_mov_i64(dest, result);
475         tcg_temp_free_i64(result);
476         tcg_temp_free_i64(flag);
477     } else {
478         /* 32 bit arithmetic */
479         TCGv_i32 t0_32 = tcg_temp_new_i32();
480         TCGv_i32 t1_32 = tcg_temp_new_i32();
481         TCGv_i32 tmp = tcg_temp_new_i32();
482
483         tcg_gen_movi_i32(tmp, 0);
484         tcg_gen_trunc_i64_i32(t0_32, t0);
485         tcg_gen_trunc_i64_i32(t1_32, t1);
486         tcg_gen_add2_i32(cpu_NF, cpu_CF, t0_32, tmp, t1_32, tmp);
487         tcg_gen_mov_i32(cpu_ZF, cpu_NF);
488         tcg_gen_xor_i32(cpu_VF, cpu_NF, t0_32);
489         tcg_gen_xor_i32(tmp, t0_32, t1_32);
490         tcg_gen_andc_i32(cpu_VF, cpu_VF, tmp);
491         tcg_gen_extu_i32_i64(dest, cpu_NF);
492
493         tcg_temp_free_i32(tmp);
494         tcg_temp_free_i32(t0_32);
495         tcg_temp_free_i32(t1_32);
496     }
497 }
498
499 /* dest = T0 - T1; compute C, N, V and Z flags */
500 static void gen_sub_CC(int sf, TCGv_i64 dest, TCGv_i64 t0, TCGv_i64 t1)
501 {
502     if (sf) {
503         /* 64 bit arithmetic */
504         TCGv_i64 result, flag, tmp;
505
506         result = tcg_temp_new_i64();
507         flag = tcg_temp_new_i64();
508         tcg_gen_sub_i64(result, t0, t1);
509
510         gen_set_NZ64(result);
511
512         tcg_gen_setcond_i64(TCG_COND_GEU, flag, t0, t1);
513         tcg_gen_trunc_i64_i32(cpu_CF, flag);
514
515         tcg_gen_xor_i64(flag, result, t0);
516         tmp = tcg_temp_new_i64();
517         tcg_gen_xor_i64(tmp, t0, t1);
518         tcg_gen_and_i64(flag, flag, tmp);
519         tcg_temp_free_i64(tmp);
520         tcg_gen_shri_i64(flag, flag, 32);
521         tcg_gen_trunc_i64_i32(cpu_VF, flag);
522         tcg_gen_mov_i64(dest, result);
523         tcg_temp_free_i64(flag);
524         tcg_temp_free_i64(result);
525     } else {
526         /* 32 bit arithmetic */
527         TCGv_i32 t0_32 = tcg_temp_new_i32();
528         TCGv_i32 t1_32 = tcg_temp_new_i32();
529         TCGv_i32 tmp;
530
531         tcg_gen_trunc_i64_i32(t0_32, t0);
532         tcg_gen_trunc_i64_i32(t1_32, t1);
533         tcg_gen_sub_i32(cpu_NF, t0_32, t1_32);
534         tcg_gen_mov_i32(cpu_ZF, cpu_NF);
535         tcg_gen_setcond_i32(TCG_COND_GEU, cpu_CF, t0_32, t1_32);
536         tcg_gen_xor_i32(cpu_VF, cpu_NF, t0_32);
537         tmp = tcg_temp_new_i32();
538         tcg_gen_xor_i32(tmp, t0_32, t1_32);
539         tcg_temp_free_i32(t0_32);
540         tcg_temp_free_i32(t1_32);
541         tcg_gen_and_i32(cpu_VF, cpu_VF, tmp);
542         tcg_temp_free_i32(tmp);
543         tcg_gen_extu_i32_i64(dest, cpu_NF);
544     }
545 }
546
547 /* dest = T0 + T1 + CF; do not compute flags. */
548 static void gen_adc(int sf, TCGv_i64 dest, TCGv_i64 t0, TCGv_i64 t1)
549 {
550     TCGv_i64 flag = tcg_temp_new_i64();
551     tcg_gen_extu_i32_i64(flag, cpu_CF);
552     tcg_gen_add_i64(dest, t0, t1);
553     tcg_gen_add_i64(dest, dest, flag);
554     tcg_temp_free_i64(flag);
555
556     if (!sf) {
557         tcg_gen_ext32u_i64(dest, dest);
558     }
559 }
560
561 /* dest = T0 + T1 + CF; compute C, N, V and Z flags. */
562 static void gen_adc_CC(int sf, TCGv_i64 dest, TCGv_i64 t0, TCGv_i64 t1)
563 {
564     if (sf) {
565         TCGv_i64 result, cf_64, vf_64, tmp;
566         result = tcg_temp_new_i64();
567         cf_64 = tcg_temp_new_i64();
568         vf_64 = tcg_temp_new_i64();
569         tmp = tcg_const_i64(0);
570
571         tcg_gen_extu_i32_i64(cf_64, cpu_CF);
572         tcg_gen_add2_i64(result, cf_64, t0, tmp, cf_64, tmp);
573         tcg_gen_add2_i64(result, cf_64, result, cf_64, t1, tmp);
574         tcg_gen_trunc_i64_i32(cpu_CF, cf_64);
575         gen_set_NZ64(result);
576
577         tcg_gen_xor_i64(vf_64, result, t0);
578         tcg_gen_xor_i64(tmp, t0, t1);
579         tcg_gen_andc_i64(vf_64, vf_64, tmp);
580         tcg_gen_shri_i64(vf_64, vf_64, 32);
581         tcg_gen_trunc_i64_i32(cpu_VF, vf_64);
582
583         tcg_gen_mov_i64(dest, result);
584
585         tcg_temp_free_i64(tmp);
586         tcg_temp_free_i64(vf_64);
587         tcg_temp_free_i64(cf_64);
588         tcg_temp_free_i64(result);
589     } else {
590         TCGv_i32 t0_32, t1_32, tmp;
591         t0_32 = tcg_temp_new_i32();
592         t1_32 = tcg_temp_new_i32();
593         tmp = tcg_const_i32(0);
594
595         tcg_gen_trunc_i64_i32(t0_32, t0);
596         tcg_gen_trunc_i64_i32(t1_32, t1);
597         tcg_gen_add2_i32(cpu_NF, cpu_CF, t0_32, tmp, cpu_CF, tmp);
598         tcg_gen_add2_i32(cpu_NF, cpu_CF, cpu_NF, cpu_CF, t1_32, tmp);
599
600         tcg_gen_mov_i32(cpu_ZF, cpu_NF);
601         tcg_gen_xor_i32(cpu_VF, cpu_NF, t0_32);
602         tcg_gen_xor_i32(tmp, t0_32, t1_32);
603         tcg_gen_andc_i32(cpu_VF, cpu_VF, tmp);
604         tcg_gen_extu_i32_i64(dest, cpu_NF);
605
606         tcg_temp_free_i32(tmp);
607         tcg_temp_free_i32(t1_32);
608         tcg_temp_free_i32(t0_32);
609     }
610 }
611
612 /*
613  * Load/Store generators
614  */
615
616 /*
617  * Store from GPR register to memory
618  */
619 static void do_gpr_st(DisasContext *s, TCGv_i64 source,
620                       TCGv_i64 tcg_addr, int size)
621 {
622     g_assert(size <= 3);
623     tcg_gen_qemu_st_i64(source, tcg_addr, get_mem_index(s), MO_TE + size);
624 }
625
626 /*
627  * Load from memory to GPR register
628  */
629 static void do_gpr_ld(DisasContext *s, TCGv_i64 dest, TCGv_i64 tcg_addr,
630                       int size, bool is_signed, bool extend)
631 {
632     TCGMemOp memop = MO_TE + size;
633
634     g_assert(size <= 3);
635
636     if (is_signed) {
637         memop += MO_SIGN;
638     }
639
640     tcg_gen_qemu_ld_i64(dest, tcg_addr, get_mem_index(s), memop);
641
642     if (extend && is_signed) {
643         g_assert(size < 3);
644         tcg_gen_ext32u_i64(dest, dest);
645     }
646 }
647
648 /*
649  * Store from FP register to memory
650  */
651 static void do_fp_st(DisasContext *s, int srcidx, TCGv_i64 tcg_addr, int size)
652 {
653     /* This writes the bottom N bits of a 128 bit wide vector to memory */
654     TCGv_i64 tmp = tcg_temp_new_i64();
655     tcg_gen_ld_i64(tmp, cpu_env, fp_reg_offset(srcidx, MO_64));
656     if (size < 4) {
657         tcg_gen_qemu_st_i64(tmp, tcg_addr, get_mem_index(s), MO_TE + size);
658     } else {
659         TCGv_i64 tcg_hiaddr = tcg_temp_new_i64();
660         tcg_gen_qemu_st_i64(tmp, tcg_addr, get_mem_index(s), MO_TEQ);
661         tcg_gen_qemu_st64(tmp, tcg_addr, get_mem_index(s));
662         tcg_gen_ld_i64(tmp, cpu_env, fp_reg_hi_offset(srcidx));
663         tcg_gen_addi_i64(tcg_hiaddr, tcg_addr, 8);
664         tcg_gen_qemu_st_i64(tmp, tcg_hiaddr, get_mem_index(s), MO_TEQ);
665         tcg_temp_free_i64(tcg_hiaddr);
666     }
667
668     tcg_temp_free_i64(tmp);
669 }
670
671 /*
672  * Load from memory to FP register
673  */
674 static void do_fp_ld(DisasContext *s, int destidx, TCGv_i64 tcg_addr, int size)
675 {
676     /* This always zero-extends and writes to a full 128 bit wide vector */
677     TCGv_i64 tmplo = tcg_temp_new_i64();
678     TCGv_i64 tmphi;
679
680     if (size < 4) {
681         TCGMemOp memop = MO_TE + size;
682         tmphi = tcg_const_i64(0);
683         tcg_gen_qemu_ld_i64(tmplo, tcg_addr, get_mem_index(s), memop);
684     } else {
685         TCGv_i64 tcg_hiaddr;
686         tmphi = tcg_temp_new_i64();
687         tcg_hiaddr = tcg_temp_new_i64();
688
689         tcg_gen_qemu_ld_i64(tmplo, tcg_addr, get_mem_index(s), MO_TEQ);
690         tcg_gen_addi_i64(tcg_hiaddr, tcg_addr, 8);
691         tcg_gen_qemu_ld_i64(tmphi, tcg_hiaddr, get_mem_index(s), MO_TEQ);
692         tcg_temp_free_i64(tcg_hiaddr);
693     }
694
695     tcg_gen_st_i64(tmplo, cpu_env, fp_reg_offset(destidx, MO_64));
696     tcg_gen_st_i64(tmphi, cpu_env, fp_reg_hi_offset(destidx));
697
698     tcg_temp_free_i64(tmplo);
699     tcg_temp_free_i64(tmphi);
700 }
701
702 /*
703  * Vector load/store helpers.
704  *
705  * The principal difference between this and a FP load is that we don't
706  * zero extend as we are filling a partial chunk of the vector register.
707  * These functions don't support 128 bit loads/stores, which would be
708  * normal load/store operations.
709  *
710  * The _i32 versions are useful when operating on 32 bit quantities
711  * (eg for floating point single or using Neon helper functions).
712  */
713
714 /* Get value of an element within a vector register */
715 static void read_vec_element(DisasContext *s, TCGv_i64 tcg_dest, int srcidx,
716                              int element, TCGMemOp memop)
717 {
718     int vect_off = vec_reg_offset(srcidx, element, memop & MO_SIZE);
719     switch (memop) {
720     case MO_8:
721         tcg_gen_ld8u_i64(tcg_dest, cpu_env, vect_off);
722         break;
723     case MO_16:
724         tcg_gen_ld16u_i64(tcg_dest, cpu_env, vect_off);
725         break;
726     case MO_32:
727         tcg_gen_ld32u_i64(tcg_dest, cpu_env, vect_off);
728         break;
729     case MO_8|MO_SIGN:
730         tcg_gen_ld8s_i64(tcg_dest, cpu_env, vect_off);
731         break;
732     case MO_16|MO_SIGN:
733         tcg_gen_ld16s_i64(tcg_dest, cpu_env, vect_off);
734         break;
735     case MO_32|MO_SIGN:
736         tcg_gen_ld32s_i64(tcg_dest, cpu_env, vect_off);
737         break;
738     case MO_64:
739     case MO_64|MO_SIGN:
740         tcg_gen_ld_i64(tcg_dest, cpu_env, vect_off);
741         break;
742     default:
743         g_assert_not_reached();
744     }
745 }
746
747 static void read_vec_element_i32(DisasContext *s, TCGv_i32 tcg_dest, int srcidx,
748                                  int element, TCGMemOp memop)
749 {
750     int vect_off = vec_reg_offset(srcidx, element, memop & MO_SIZE);
751     switch (memop) {
752     case MO_8:
753         tcg_gen_ld8u_i32(tcg_dest, cpu_env, vect_off);
754         break;
755     case MO_16:
756         tcg_gen_ld16u_i32(tcg_dest, cpu_env, vect_off);
757         break;
758     case MO_8|MO_SIGN:
759         tcg_gen_ld8s_i32(tcg_dest, cpu_env, vect_off);
760         break;
761     case MO_16|MO_SIGN:
762         tcg_gen_ld16s_i32(tcg_dest, cpu_env, vect_off);
763         break;
764     case MO_32:
765     case MO_32|MO_SIGN:
766         tcg_gen_ld_i32(tcg_dest, cpu_env, vect_off);
767         break;
768     default:
769         g_assert_not_reached();
770     }
771 }
772
773 /* Set value of an element within a vector register */
774 static void write_vec_element(DisasContext *s, TCGv_i64 tcg_src, int destidx,
775                               int element, TCGMemOp memop)
776 {
777     int vect_off = vec_reg_offset(destidx, element, memop & MO_SIZE);
778     switch (memop) {
779     case MO_8:
780         tcg_gen_st8_i64(tcg_src, cpu_env, vect_off);
781         break;
782     case MO_16:
783         tcg_gen_st16_i64(tcg_src, cpu_env, vect_off);
784         break;
785     case MO_32:
786         tcg_gen_st32_i64(tcg_src, cpu_env, vect_off);
787         break;
788     case MO_64:
789         tcg_gen_st_i64(tcg_src, cpu_env, vect_off);
790         break;
791     default:
792         g_assert_not_reached();
793     }
794 }
795
796 static void write_vec_element_i32(DisasContext *s, TCGv_i32 tcg_src,
797                                   int destidx, int element, TCGMemOp memop)
798 {
799     int vect_off = vec_reg_offset(destidx, element, memop & MO_SIZE);
800     switch (memop) {
801     case MO_8:
802         tcg_gen_st8_i32(tcg_src, cpu_env, vect_off);
803         break;
804     case MO_16:
805         tcg_gen_st16_i32(tcg_src, cpu_env, vect_off);
806         break;
807     case MO_32:
808         tcg_gen_st_i32(tcg_src, cpu_env, vect_off);
809         break;
810     default:
811         g_assert_not_reached();
812     }
813 }
814
815 /* Clear the high 64 bits of a 128 bit vector (in general non-quad
816  * vector ops all need to do this).
817  */
818 static void clear_vec_high(DisasContext *s, int rd)
819 {
820     TCGv_i64 tcg_zero = tcg_const_i64(0);
821
822     write_vec_element(s, tcg_zero, rd, 1, MO_64);
823     tcg_temp_free_i64(tcg_zero);
824 }
825
826 /* Store from vector register to memory */
827 static void do_vec_st(DisasContext *s, int srcidx, int element,
828                       TCGv_i64 tcg_addr, int size)
829 {
830     TCGMemOp memop = MO_TE + size;
831     TCGv_i64 tcg_tmp = tcg_temp_new_i64();
832
833     read_vec_element(s, tcg_tmp, srcidx, element, size);
834     tcg_gen_qemu_st_i64(tcg_tmp, tcg_addr, get_mem_index(s), memop);
835
836     tcg_temp_free_i64(tcg_tmp);
837 }
838
839 /* Load from memory to vector register */
840 static void do_vec_ld(DisasContext *s, int destidx, int element,
841                       TCGv_i64 tcg_addr, int size)
842 {
843     TCGMemOp memop = MO_TE + size;
844     TCGv_i64 tcg_tmp = tcg_temp_new_i64();
845
846     tcg_gen_qemu_ld_i64(tcg_tmp, tcg_addr, get_mem_index(s), memop);
847     write_vec_element(s, tcg_tmp, destidx, element, size);
848
849     tcg_temp_free_i64(tcg_tmp);
850 }
851
852 /*
853  * This utility function is for doing register extension with an
854  * optional shift. You will likely want to pass a temporary for the
855  * destination register. See DecodeRegExtend() in the ARM ARM.
856  */
857 static void ext_and_shift_reg(TCGv_i64 tcg_out, TCGv_i64 tcg_in,
858                               int option, unsigned int shift)
859 {
860     int extsize = extract32(option, 0, 2);
861     bool is_signed = extract32(option, 2, 1);
862
863     if (is_signed) {
864         switch (extsize) {
865         case 0:
866             tcg_gen_ext8s_i64(tcg_out, tcg_in);
867             break;
868         case 1:
869             tcg_gen_ext16s_i64(tcg_out, tcg_in);
870             break;
871         case 2:
872             tcg_gen_ext32s_i64(tcg_out, tcg_in);
873             break;
874         case 3:
875             tcg_gen_mov_i64(tcg_out, tcg_in);
876             break;
877         }
878     } else {
879         switch (extsize) {
880         case 0:
881             tcg_gen_ext8u_i64(tcg_out, tcg_in);
882             break;
883         case 1:
884             tcg_gen_ext16u_i64(tcg_out, tcg_in);
885             break;
886         case 2:
887             tcg_gen_ext32u_i64(tcg_out, tcg_in);
888             break;
889         case 3:
890             tcg_gen_mov_i64(tcg_out, tcg_in);
891             break;
892         }
893     }
894
895     if (shift) {
896         tcg_gen_shli_i64(tcg_out, tcg_out, shift);
897     }
898 }
899
900 static inline void gen_check_sp_alignment(DisasContext *s)
901 {
902     /* The AArch64 architecture mandates that (if enabled via PSTATE
903      * or SCTLR bits) there is a check that SP is 16-aligned on every
904      * SP-relative load or store (with an exception generated if it is not).
905      * In line with general QEMU practice regarding misaligned accesses,
906      * we omit these checks for the sake of guest program performance.
907      * This function is provided as a hook so we can more easily add these
908      * checks in future (possibly as a "favour catching guest program bugs
909      * over speed" user selectable option).
910      */
911 }
912
913 /*
914  * This provides a simple table based table lookup decoder. It is
915  * intended to be used when the relevant bits for decode are too
916  * awkwardly placed and switch/if based logic would be confusing and
917  * deeply nested. Since it's a linear search through the table, tables
918  * should be kept small.
919  *
920  * It returns the first handler where insn & mask == pattern, or
921  * NULL if there is no match.
922  * The table is terminated by an empty mask (i.e. 0)
923  */
924 static inline AArch64DecodeFn *lookup_disas_fn(const AArch64DecodeTable *table,
925                                                uint32_t insn)
926 {
927     const AArch64DecodeTable *tptr = table;
928
929     while (tptr->mask) {
930         if ((insn & tptr->mask) == tptr->pattern) {
931             return tptr->disas_fn;
932         }
933         tptr++;
934     }
935     return NULL;
936 }
937
938 /*
939  * the instruction disassembly implemented here matches
940  * the instruction encoding classifications in chapter 3 (C3)
941  * of the ARM Architecture Reference Manual (DDI0487A_a)
942  */
943
944 /* C3.2.7 Unconditional branch (immediate)
945  *   31  30       26 25                                  0
946  * +----+-----------+-------------------------------------+
947  * | op | 0 0 1 0 1 |                 imm26               |
948  * +----+-----------+-------------------------------------+
949  */
950 static void disas_uncond_b_imm(DisasContext *s, uint32_t insn)
951 {
952     uint64_t addr = s->pc + sextract32(insn, 0, 26) * 4 - 4;
953
954     if (insn & (1 << 31)) {
955         /* C5.6.26 BL Branch with link */
956         tcg_gen_movi_i64(cpu_reg(s, 30), s->pc);
957     }
958
959     /* C5.6.20 B Branch / C5.6.26 BL Branch with link */
960     gen_goto_tb(s, 0, addr);
961 }
962
963 /* C3.2.1 Compare & branch (immediate)
964  *   31  30         25  24  23                  5 4      0
965  * +----+-------------+----+---------------------+--------+
966  * | sf | 0 1 1 0 1 0 | op |         imm19       |   Rt   |
967  * +----+-------------+----+---------------------+--------+
968  */
969 static void disas_comp_b_imm(DisasContext *s, uint32_t insn)
970 {
971     unsigned int sf, op, rt;
972     uint64_t addr;
973     int label_match;
974     TCGv_i64 tcg_cmp;
975
976     sf = extract32(insn, 31, 1);
977     op = extract32(insn, 24, 1); /* 0: CBZ; 1: CBNZ */
978     rt = extract32(insn, 0, 5);
979     addr = s->pc + sextract32(insn, 5, 19) * 4 - 4;
980
981     tcg_cmp = read_cpu_reg(s, rt, sf);
982     label_match = gen_new_label();
983
984     tcg_gen_brcondi_i64(op ? TCG_COND_NE : TCG_COND_EQ,
985                         tcg_cmp, 0, label_match);
986
987     gen_goto_tb(s, 0, s->pc);
988     gen_set_label(label_match);
989     gen_goto_tb(s, 1, addr);
990 }
991
992 /* C3.2.5 Test & branch (immediate)
993  *   31  30         25  24  23   19 18          5 4    0
994  * +----+-------------+----+-------+-------------+------+
995  * | b5 | 0 1 1 0 1 1 | op |  b40  |    imm14    |  Rt  |
996  * +----+-------------+----+-------+-------------+------+
997  */
998 static void disas_test_b_imm(DisasContext *s, uint32_t insn)
999 {
1000     unsigned int bit_pos, op, rt;
1001     uint64_t addr;
1002     int label_match;
1003     TCGv_i64 tcg_cmp;
1004
1005     bit_pos = (extract32(insn, 31, 1) << 5) | extract32(insn, 19, 5);
1006     op = extract32(insn, 24, 1); /* 0: TBZ; 1: TBNZ */
1007     addr = s->pc + sextract32(insn, 5, 14) * 4 - 4;
1008     rt = extract32(insn, 0, 5);
1009
1010     tcg_cmp = tcg_temp_new_i64();
1011     tcg_gen_andi_i64(tcg_cmp, cpu_reg(s, rt), (1ULL << bit_pos));
1012     label_match = gen_new_label();
1013     tcg_gen_brcondi_i64(op ? TCG_COND_NE : TCG_COND_EQ,
1014                         tcg_cmp, 0, label_match);
1015     tcg_temp_free_i64(tcg_cmp);
1016     gen_goto_tb(s, 0, s->pc);
1017     gen_set_label(label_match);
1018     gen_goto_tb(s, 1, addr);
1019 }
1020
1021 /* C3.2.2 / C5.6.19 Conditional branch (immediate)
1022  *  31           25  24  23                  5   4  3    0
1023  * +---------------+----+---------------------+----+------+
1024  * | 0 1 0 1 0 1 0 | o1 |         imm19       | o0 | cond |
1025  * +---------------+----+---------------------+----+------+
1026  */
1027 static void disas_cond_b_imm(DisasContext *s, uint32_t insn)
1028 {
1029     unsigned int cond;
1030     uint64_t addr;
1031
1032     if ((insn & (1 << 4)) || (insn & (1 << 24))) {
1033         unallocated_encoding(s);
1034         return;
1035     }
1036     addr = s->pc + sextract32(insn, 5, 19) * 4 - 4;
1037     cond = extract32(insn, 0, 4);
1038
1039     if (cond < 0x0e) {
1040         /* genuinely conditional branches */
1041         int label_match = gen_new_label();
1042         arm_gen_test_cc(cond, label_match);
1043         gen_goto_tb(s, 0, s->pc);
1044         gen_set_label(label_match);
1045         gen_goto_tb(s, 1, addr);
1046     } else {
1047         /* 0xe and 0xf are both "always" conditions */
1048         gen_goto_tb(s, 0, addr);
1049     }
1050 }
1051
1052 /* C5.6.68 HINT */
1053 static void handle_hint(DisasContext *s, uint32_t insn,
1054                         unsigned int op1, unsigned int op2, unsigned int crm)
1055 {
1056     unsigned int selector = crm << 3 | op2;
1057
1058     if (op1 != 3) {
1059         unallocated_encoding(s);
1060         return;
1061     }
1062
1063     switch (selector) {
1064     case 0: /* NOP */
1065         return;
1066     case 1: /* YIELD */
1067     case 2: /* WFE */
1068     case 3: /* WFI */
1069     case 4: /* SEV */
1070     case 5: /* SEVL */
1071         /* we treat all as NOP at least for now */
1072         return;
1073     default:
1074         /* default specified as NOP equivalent */
1075         return;
1076     }
1077 }
1078
1079 static void gen_clrex(DisasContext *s, uint32_t insn)
1080 {
1081     tcg_gen_movi_i64(cpu_exclusive_addr, -1);
1082 }
1083
1084 /* CLREX, DSB, DMB, ISB */
1085 static void handle_sync(DisasContext *s, uint32_t insn,
1086                         unsigned int op1, unsigned int op2, unsigned int crm)
1087 {
1088     if (op1 != 3) {
1089         unallocated_encoding(s);
1090         return;
1091     }
1092
1093     switch (op2) {
1094     case 2: /* CLREX */
1095         gen_clrex(s, insn);
1096         return;
1097     case 4: /* DSB */
1098     case 5: /* DMB */
1099     case 6: /* ISB */
1100         /* We don't emulate caches so barriers are no-ops */
1101         return;
1102     default:
1103         unallocated_encoding(s);
1104         return;
1105     }
1106 }
1107
1108 /* C5.6.130 MSR (immediate) - move immediate to processor state field */
1109 static void handle_msr_i(DisasContext *s, uint32_t insn,
1110                          unsigned int op1, unsigned int op2, unsigned int crm)
1111 {
1112     unsupported_encoding(s, insn);
1113 }
1114
1115 static void gen_get_nzcv(TCGv_i64 tcg_rt)
1116 {
1117     TCGv_i32 tmp = tcg_temp_new_i32();
1118     TCGv_i32 nzcv = tcg_temp_new_i32();
1119
1120     /* build bit 31, N */
1121     tcg_gen_andi_i32(nzcv, cpu_NF, (1 << 31));
1122     /* build bit 30, Z */
1123     tcg_gen_setcondi_i32(TCG_COND_EQ, tmp, cpu_ZF, 0);
1124     tcg_gen_deposit_i32(nzcv, nzcv, tmp, 30, 1);
1125     /* build bit 29, C */
1126     tcg_gen_deposit_i32(nzcv, nzcv, cpu_CF, 29, 1);
1127     /* build bit 28, V */
1128     tcg_gen_shri_i32(tmp, cpu_VF, 31);
1129     tcg_gen_deposit_i32(nzcv, nzcv, tmp, 28, 1);
1130     /* generate result */
1131     tcg_gen_extu_i32_i64(tcg_rt, nzcv);
1132
1133     tcg_temp_free_i32(nzcv);
1134     tcg_temp_free_i32(tmp);
1135 }
1136
1137 static void gen_set_nzcv(TCGv_i64 tcg_rt)
1138
1139 {
1140     TCGv_i32 nzcv = tcg_temp_new_i32();
1141
1142     /* take NZCV from R[t] */
1143     tcg_gen_trunc_i64_i32(nzcv, tcg_rt);
1144
1145     /* bit 31, N */
1146     tcg_gen_andi_i32(cpu_NF, nzcv, (1 << 31));
1147     /* bit 30, Z */
1148     tcg_gen_andi_i32(cpu_ZF, nzcv, (1 << 30));
1149     tcg_gen_setcondi_i32(TCG_COND_EQ, cpu_ZF, cpu_ZF, 0);
1150     /* bit 29, C */
1151     tcg_gen_andi_i32(cpu_CF, nzcv, (1 << 29));
1152     tcg_gen_shri_i32(cpu_CF, cpu_CF, 29);
1153     /* bit 28, V */
1154     tcg_gen_andi_i32(cpu_VF, nzcv, (1 << 28));
1155     tcg_gen_shli_i32(cpu_VF, cpu_VF, 3);
1156     tcg_temp_free_i32(nzcv);
1157 }
1158
1159 /* C5.6.129 MRS - move from system register
1160  * C5.6.131 MSR (register) - move to system register
1161  * C5.6.204 SYS
1162  * C5.6.205 SYSL
1163  * These are all essentially the same insn in 'read' and 'write'
1164  * versions, with varying op0 fields.
1165  */
1166 static void handle_sys(DisasContext *s, uint32_t insn, bool isread,
1167                        unsigned int op0, unsigned int op1, unsigned int op2,
1168                        unsigned int crn, unsigned int crm, unsigned int rt)
1169 {
1170     const ARMCPRegInfo *ri;
1171     TCGv_i64 tcg_rt;
1172
1173     ri = get_arm_cp_reginfo(s->cp_regs,
1174                             ENCODE_AA64_CP_REG(CP_REG_ARM64_SYSREG_CP,
1175                                                crn, crm, op0, op1, op2));
1176
1177     if (!ri) {
1178         /* Unknown register */
1179         unallocated_encoding(s);
1180         return;
1181     }
1182
1183     /* Check access permissions */
1184     if (!cp_access_ok(s->current_pl, ri, isread)) {
1185         unallocated_encoding(s);
1186         return;
1187     }
1188
1189     /* Handle special cases first */
1190     switch (ri->type & ~(ARM_CP_FLAG_MASK & ~ARM_CP_SPECIAL)) {
1191     case ARM_CP_NOP:
1192         return;
1193     case ARM_CP_NZCV:
1194         tcg_rt = cpu_reg(s, rt);
1195         if (isread) {
1196             gen_get_nzcv(tcg_rt);
1197         } else {
1198             gen_set_nzcv(tcg_rt);
1199         }
1200         return;
1201     default:
1202         break;
1203     }
1204
1205     if (use_icount && (ri->type & ARM_CP_IO)) {
1206         gen_io_start();
1207     }
1208
1209     tcg_rt = cpu_reg(s, rt);
1210
1211     if (isread) {
1212         if (ri->type & ARM_CP_CONST) {
1213             tcg_gen_movi_i64(tcg_rt, ri->resetvalue);
1214         } else if (ri->readfn) {
1215             TCGv_ptr tmpptr;
1216             gen_a64_set_pc_im(s->pc - 4);
1217             tmpptr = tcg_const_ptr(ri);
1218             gen_helper_get_cp_reg64(tcg_rt, cpu_env, tmpptr);
1219             tcg_temp_free_ptr(tmpptr);
1220         } else {
1221             tcg_gen_ld_i64(tcg_rt, cpu_env, ri->fieldoffset);
1222         }
1223     } else {
1224         if (ri->type & ARM_CP_CONST) {
1225             /* If not forbidden by access permissions, treat as WI */
1226             return;
1227         } else if (ri->writefn) {
1228             TCGv_ptr tmpptr;
1229             gen_a64_set_pc_im(s->pc - 4);
1230             tmpptr = tcg_const_ptr(ri);
1231             gen_helper_set_cp_reg64(cpu_env, tmpptr, tcg_rt);
1232             tcg_temp_free_ptr(tmpptr);
1233         } else {
1234             tcg_gen_st_i64(tcg_rt, cpu_env, ri->fieldoffset);
1235         }
1236     }
1237
1238     if (use_icount && (ri->type & ARM_CP_IO)) {
1239         /* I/O operations must end the TB here (whether read or write) */
1240         gen_io_end();
1241         s->is_jmp = DISAS_UPDATE;
1242     } else if (!isread && !(ri->type & ARM_CP_SUPPRESS_TB_END)) {
1243         /* We default to ending the TB on a coprocessor register write,
1244          * but allow this to be suppressed by the register definition
1245          * (usually only necessary to work around guest bugs).
1246          */
1247         s->is_jmp = DISAS_UPDATE;
1248     }
1249 }
1250
1251 /* C3.2.4 System
1252  *  31                 22 21  20 19 18 16 15   12 11    8 7   5 4    0
1253  * +---------------------+---+-----+-----+-------+-------+-----+------+
1254  * | 1 1 0 1 0 1 0 1 0 0 | L | op0 | op1 |  CRn  |  CRm  | op2 |  Rt  |
1255  * +---------------------+---+-----+-----+-------+-------+-----+------+
1256  */
1257 static void disas_system(DisasContext *s, uint32_t insn)
1258 {
1259     unsigned int l, op0, op1, crn, crm, op2, rt;
1260     l = extract32(insn, 21, 1);
1261     op0 = extract32(insn, 19, 2);
1262     op1 = extract32(insn, 16, 3);
1263     crn = extract32(insn, 12, 4);
1264     crm = extract32(insn, 8, 4);
1265     op2 = extract32(insn, 5, 3);
1266     rt = extract32(insn, 0, 5);
1267
1268     if (op0 == 0) {
1269         if (l || rt != 31) {
1270             unallocated_encoding(s);
1271             return;
1272         }
1273         switch (crn) {
1274         case 2: /* C5.6.68 HINT */
1275             handle_hint(s, insn, op1, op2, crm);
1276             break;
1277         case 3: /* CLREX, DSB, DMB, ISB */
1278             handle_sync(s, insn, op1, op2, crm);
1279             break;
1280         case 4: /* C5.6.130 MSR (immediate) */
1281             handle_msr_i(s, insn, op1, op2, crm);
1282             break;
1283         default:
1284             unallocated_encoding(s);
1285             break;
1286         }
1287         return;
1288     }
1289     handle_sys(s, insn, l, op0, op1, op2, crn, crm, rt);
1290 }
1291
1292 /* C3.2.3 Exception generation
1293  *
1294  *  31             24 23 21 20                     5 4   2 1  0
1295  * +-----------------+-----+------------------------+-----+----+
1296  * | 1 1 0 1 0 1 0 0 | opc |          imm16         | op2 | LL |
1297  * +-----------------------+------------------------+----------+
1298  */
1299 static void disas_exc(DisasContext *s, uint32_t insn)
1300 {
1301     int opc = extract32(insn, 21, 3);
1302     int op2_ll = extract32(insn, 0, 5);
1303
1304     switch (opc) {
1305     case 0:
1306         /* SVC, HVC, SMC; since we don't support the Virtualization
1307          * or TrustZone extensions these all UNDEF except SVC.
1308          */
1309         if (op2_ll != 1) {
1310             unallocated_encoding(s);
1311             break;
1312         }
1313         gen_exception_insn(s, 0, EXCP_SWI);
1314         break;
1315     case 1:
1316         if (op2_ll != 0) {
1317             unallocated_encoding(s);
1318             break;
1319         }
1320         /* BRK */
1321         gen_exception_insn(s, 0, EXCP_BKPT);
1322         break;
1323     case 2:
1324         if (op2_ll != 0) {
1325             unallocated_encoding(s);
1326             break;
1327         }
1328         /* HLT */
1329         unsupported_encoding(s, insn);
1330         break;
1331     case 5:
1332         if (op2_ll < 1 || op2_ll > 3) {
1333             unallocated_encoding(s);
1334             break;
1335         }
1336         /* DCPS1, DCPS2, DCPS3 */
1337         unsupported_encoding(s, insn);
1338         break;
1339     default:
1340         unallocated_encoding(s);
1341         break;
1342     }
1343 }
1344
1345 /* C3.2.7 Unconditional branch (register)
1346  *  31           25 24   21 20   16 15   10 9    5 4     0
1347  * +---------------+-------+-------+-------+------+-------+
1348  * | 1 1 0 1 0 1 1 |  opc  |  op2  |  op3  |  Rn  |  op4  |
1349  * +---------------+-------+-------+-------+------+-------+
1350  */
1351 static void disas_uncond_b_reg(DisasContext *s, uint32_t insn)
1352 {
1353     unsigned int opc, op2, op3, rn, op4;
1354
1355     opc = extract32(insn, 21, 4);
1356     op2 = extract32(insn, 16, 5);
1357     op3 = extract32(insn, 10, 6);
1358     rn = extract32(insn, 5, 5);
1359     op4 = extract32(insn, 0, 5);
1360
1361     if (op4 != 0x0 || op3 != 0x0 || op2 != 0x1f) {
1362         unallocated_encoding(s);
1363         return;
1364     }
1365
1366     switch (opc) {
1367     case 0: /* BR */
1368     case 2: /* RET */
1369         break;
1370     case 1: /* BLR */
1371         tcg_gen_movi_i64(cpu_reg(s, 30), s->pc);
1372         break;
1373     case 4: /* ERET */
1374     case 5: /* DRPS */
1375         if (rn != 0x1f) {
1376             unallocated_encoding(s);
1377         } else {
1378             unsupported_encoding(s, insn);
1379         }
1380         return;
1381     default:
1382         unallocated_encoding(s);
1383         return;
1384     }
1385
1386     tcg_gen_mov_i64(cpu_pc, cpu_reg(s, rn));
1387     s->is_jmp = DISAS_JUMP;
1388 }
1389
1390 /* C3.2 Branches, exception generating and system instructions */
1391 static void disas_b_exc_sys(DisasContext *s, uint32_t insn)
1392 {
1393     switch (extract32(insn, 25, 7)) {
1394     case 0x0a: case 0x0b:
1395     case 0x4a: case 0x4b: /* Unconditional branch (immediate) */
1396         disas_uncond_b_imm(s, insn);
1397         break;
1398     case 0x1a: case 0x5a: /* Compare & branch (immediate) */
1399         disas_comp_b_imm(s, insn);
1400         break;
1401     case 0x1b: case 0x5b: /* Test & branch (immediate) */
1402         disas_test_b_imm(s, insn);
1403         break;
1404     case 0x2a: /* Conditional branch (immediate) */
1405         disas_cond_b_imm(s, insn);
1406         break;
1407     case 0x6a: /* Exception generation / System */
1408         if (insn & (1 << 24)) {
1409             disas_system(s, insn);
1410         } else {
1411             disas_exc(s, insn);
1412         }
1413         break;
1414     case 0x6b: /* Unconditional branch (register) */
1415         disas_uncond_b_reg(s, insn);
1416         break;
1417     default:
1418         unallocated_encoding(s);
1419         break;
1420     }
1421 }
1422
1423 /*
1424  * Load/Store exclusive instructions are implemented by remembering
1425  * the value/address loaded, and seeing if these are the same
1426  * when the store is performed. This is not actually the architecturally
1427  * mandated semantics, but it works for typical guest code sequences
1428  * and avoids having to monitor regular stores.
1429  *
1430  * In system emulation mode only one CPU will be running at once, so
1431  * this sequence is effectively atomic.  In user emulation mode we
1432  * throw an exception and handle the atomic operation elsewhere.
1433  */
1434 static void gen_load_exclusive(DisasContext *s, int rt, int rt2,
1435                                TCGv_i64 addr, int size, bool is_pair)
1436 {
1437     TCGv_i64 tmp = tcg_temp_new_i64();
1438     TCGMemOp memop = MO_TE + size;
1439
1440     g_assert(size <= 3);
1441     tcg_gen_qemu_ld_i64(tmp, addr, get_mem_index(s), memop);
1442
1443     if (is_pair) {
1444         TCGv_i64 addr2 = tcg_temp_new_i64();
1445         TCGv_i64 hitmp = tcg_temp_new_i64();
1446
1447         g_assert(size >= 2);
1448         tcg_gen_addi_i64(addr2, addr, 1 << size);
1449         tcg_gen_qemu_ld_i64(hitmp, addr2, get_mem_index(s), memop);
1450         tcg_temp_free_i64(addr2);
1451         tcg_gen_mov_i64(cpu_exclusive_high, hitmp);
1452         tcg_gen_mov_i64(cpu_reg(s, rt2), hitmp);
1453         tcg_temp_free_i64(hitmp);
1454     }
1455
1456     tcg_gen_mov_i64(cpu_exclusive_val, tmp);
1457     tcg_gen_mov_i64(cpu_reg(s, rt), tmp);
1458
1459     tcg_temp_free_i64(tmp);
1460     tcg_gen_mov_i64(cpu_exclusive_addr, addr);
1461 }
1462
1463 #ifdef CONFIG_USER_ONLY
1464 static void gen_store_exclusive(DisasContext *s, int rd, int rt, int rt2,
1465                                 TCGv_i64 addr, int size, int is_pair)
1466 {
1467     tcg_gen_mov_i64(cpu_exclusive_test, addr);
1468     tcg_gen_movi_i32(cpu_exclusive_info,
1469                      size | is_pair << 2 | (rd << 4) | (rt << 9) | (rt2 << 14));
1470     gen_exception_insn(s, 4, EXCP_STREX);
1471 }
1472 #else
1473 static void gen_store_exclusive(DisasContext *s, int rd, int rt, int rt2,
1474                                 TCGv_i64 addr, int size, int is_pair)
1475 {
1476     qemu_log_mask(LOG_UNIMP,
1477                   "%s:%d: system mode store_exclusive unsupported "
1478                   "at pc=%016" PRIx64 "\n",
1479                   __FILE__, __LINE__, s->pc - 4);
1480 }
1481 #endif
1482
1483 /* C3.3.6 Load/store exclusive
1484  *
1485  *  31 30 29         24  23  22   21  20  16  15  14   10 9    5 4    0
1486  * +-----+-------------+----+---+----+------+----+-------+------+------+
1487  * | sz  | 0 0 1 0 0 0 | o2 | L | o1 |  Rs  | o0 |  Rt2  |  Rn  | Rt   |
1488  * +-----+-------------+----+---+----+------+----+-------+------+------+
1489  *
1490  *  sz: 00 -> 8 bit, 01 -> 16 bit, 10 -> 32 bit, 11 -> 64 bit
1491  *   L: 0 -> store, 1 -> load
1492  *  o2: 0 -> exclusive, 1 -> not
1493  *  o1: 0 -> single register, 1 -> register pair
1494  *  o0: 1 -> load-acquire/store-release, 0 -> not
1495  *
1496  *  o0 == 0 AND o2 == 1 is un-allocated
1497  *  o1 == 1 is un-allocated except for 32 and 64 bit sizes
1498  */
1499 static void disas_ldst_excl(DisasContext *s, uint32_t insn)
1500 {
1501     int rt = extract32(insn, 0, 5);
1502     int rn = extract32(insn, 5, 5);
1503     int rt2 = extract32(insn, 10, 5);
1504     int is_lasr = extract32(insn, 15, 1);
1505     int rs = extract32(insn, 16, 5);
1506     int is_pair = extract32(insn, 21, 1);
1507     int is_store = !extract32(insn, 22, 1);
1508     int is_excl = !extract32(insn, 23, 1);
1509     int size = extract32(insn, 30, 2);
1510     TCGv_i64 tcg_addr;
1511
1512     if ((!is_excl && !is_lasr) ||
1513         (is_pair && size < 2)) {
1514         unallocated_encoding(s);
1515         return;
1516     }
1517
1518     if (rn == 31) {
1519         gen_check_sp_alignment(s);
1520     }
1521     tcg_addr = read_cpu_reg_sp(s, rn, 1);
1522
1523     /* Note that since TCG is single threaded load-acquire/store-release
1524      * semantics require no extra if (is_lasr) { ... } handling.
1525      */
1526
1527     if (is_excl) {
1528         if (!is_store) {
1529             gen_load_exclusive(s, rt, rt2, tcg_addr, size, is_pair);
1530         } else {
1531             gen_store_exclusive(s, rs, rt, rt2, tcg_addr, size, is_pair);
1532         }
1533     } else {
1534         TCGv_i64 tcg_rt = cpu_reg(s, rt);
1535         if (is_store) {
1536             do_gpr_st(s, tcg_rt, tcg_addr, size);
1537         } else {
1538             do_gpr_ld(s, tcg_rt, tcg_addr, size, false, false);
1539         }
1540         if (is_pair) {
1541             TCGv_i64 tcg_rt2 = cpu_reg(s, rt);
1542             tcg_gen_addi_i64(tcg_addr, tcg_addr, 1 << size);
1543             if (is_store) {
1544                 do_gpr_st(s, tcg_rt2, tcg_addr, size);
1545             } else {
1546                 do_gpr_ld(s, tcg_rt2, tcg_addr, size, false, false);
1547             }
1548         }
1549     }
1550 }
1551
1552 /*
1553  * C3.3.5 Load register (literal)
1554  *
1555  *  31 30 29   27  26 25 24 23                5 4     0
1556  * +-----+-------+---+-----+-------------------+-------+
1557  * | opc | 0 1 1 | V | 0 0 |     imm19         |  Rt   |
1558  * +-----+-------+---+-----+-------------------+-------+
1559  *
1560  * V: 1 -> vector (simd/fp)
1561  * opc (non-vector): 00 -> 32 bit, 01 -> 64 bit,
1562  *                   10-> 32 bit signed, 11 -> prefetch
1563  * opc (vector): 00 -> 32 bit, 01 -> 64 bit, 10 -> 128 bit (11 unallocated)
1564  */
1565 static void disas_ld_lit(DisasContext *s, uint32_t insn)
1566 {
1567     int rt = extract32(insn, 0, 5);
1568     int64_t imm = sextract32(insn, 5, 19) << 2;
1569     bool is_vector = extract32(insn, 26, 1);
1570     int opc = extract32(insn, 30, 2);
1571     bool is_signed = false;
1572     int size = 2;
1573     TCGv_i64 tcg_rt, tcg_addr;
1574
1575     if (is_vector) {
1576         if (opc == 3) {
1577             unallocated_encoding(s);
1578             return;
1579         }
1580         size = 2 + opc;
1581     } else {
1582         if (opc == 3) {
1583             /* PRFM (literal) : prefetch */
1584             return;
1585         }
1586         size = 2 + extract32(opc, 0, 1);
1587         is_signed = extract32(opc, 1, 1);
1588     }
1589
1590     tcg_rt = cpu_reg(s, rt);
1591
1592     tcg_addr = tcg_const_i64((s->pc - 4) + imm);
1593     if (is_vector) {
1594         do_fp_ld(s, rt, tcg_addr, size);
1595     } else {
1596         do_gpr_ld(s, tcg_rt, tcg_addr, size, is_signed, false);
1597     }
1598     tcg_temp_free_i64(tcg_addr);
1599 }
1600
1601 /*
1602  * C5.6.80 LDNP (Load Pair - non-temporal hint)
1603  * C5.6.81 LDP (Load Pair - non vector)
1604  * C5.6.82 LDPSW (Load Pair Signed Word - non vector)
1605  * C5.6.176 STNP (Store Pair - non-temporal hint)
1606  * C5.6.177 STP (Store Pair - non vector)
1607  * C6.3.165 LDNP (Load Pair of SIMD&FP - non-temporal hint)
1608  * C6.3.165 LDP (Load Pair of SIMD&FP)
1609  * C6.3.284 STNP (Store Pair of SIMD&FP - non-temporal hint)
1610  * C6.3.284 STP (Store Pair of SIMD&FP)
1611  *
1612  *  31 30 29   27  26  25 24   23  22 21   15 14   10 9    5 4    0
1613  * +-----+-------+---+---+-------+---+-----------------------------+
1614  * | opc | 1 0 1 | V | 0 | index | L |  imm7 |  Rt2  |  Rn  | Rt   |
1615  * +-----+-------+---+---+-------+---+-------+-------+------+------+
1616  *
1617  * opc: LDP/STP/LDNP/STNP        00 -> 32 bit, 10 -> 64 bit
1618  *      LDPSW                    01
1619  *      LDP/STP/LDNP/STNP (SIMD) 00 -> 32 bit, 01 -> 64 bit, 10 -> 128 bit
1620  *   V: 0 -> GPR, 1 -> Vector
1621  * idx: 00 -> signed offset with non-temporal hint, 01 -> post-index,
1622  *      10 -> signed offset, 11 -> pre-index
1623  *   L: 0 -> Store 1 -> Load
1624  *
1625  * Rt, Rt2 = GPR or SIMD registers to be stored
1626  * Rn = general purpose register containing address
1627  * imm7 = signed offset (multiple of 4 or 8 depending on size)
1628  */
1629 static void disas_ldst_pair(DisasContext *s, uint32_t insn)
1630 {
1631     int rt = extract32(insn, 0, 5);
1632     int rn = extract32(insn, 5, 5);
1633     int rt2 = extract32(insn, 10, 5);
1634     int64_t offset = sextract32(insn, 15, 7);
1635     int index = extract32(insn, 23, 2);
1636     bool is_vector = extract32(insn, 26, 1);
1637     bool is_load = extract32(insn, 22, 1);
1638     int opc = extract32(insn, 30, 2);
1639
1640     bool is_signed = false;
1641     bool postindex = false;
1642     bool wback = false;
1643
1644     TCGv_i64 tcg_addr; /* calculated address */
1645     int size;
1646
1647     if (opc == 3) {
1648         unallocated_encoding(s);
1649         return;
1650     }
1651
1652     if (is_vector) {
1653         size = 2 + opc;
1654     } else {
1655         size = 2 + extract32(opc, 1, 1);
1656         is_signed = extract32(opc, 0, 1);
1657         if (!is_load && is_signed) {
1658             unallocated_encoding(s);
1659             return;
1660         }
1661     }
1662
1663     switch (index) {
1664     case 1: /* post-index */
1665         postindex = true;
1666         wback = true;
1667         break;
1668     case 0:
1669         /* signed offset with "non-temporal" hint. Since we don't emulate
1670          * caches we don't care about hints to the cache system about
1671          * data access patterns, and handle this identically to plain
1672          * signed offset.
1673          */
1674         if (is_signed) {
1675             /* There is no non-temporal-hint version of LDPSW */
1676             unallocated_encoding(s);
1677             return;
1678         }
1679         postindex = false;
1680         break;
1681     case 2: /* signed offset, rn not updated */
1682         postindex = false;
1683         break;
1684     case 3: /* pre-index */
1685         postindex = false;
1686         wback = true;
1687         break;
1688     }
1689
1690     offset <<= size;
1691
1692     if (rn == 31) {
1693         gen_check_sp_alignment(s);
1694     }
1695
1696     tcg_addr = read_cpu_reg_sp(s, rn, 1);
1697
1698     if (!postindex) {
1699         tcg_gen_addi_i64(tcg_addr, tcg_addr, offset);
1700     }
1701
1702     if (is_vector) {
1703         if (is_load) {
1704             do_fp_ld(s, rt, tcg_addr, size);
1705         } else {
1706             do_fp_st(s, rt, tcg_addr, size);
1707         }
1708     } else {
1709         TCGv_i64 tcg_rt = cpu_reg(s, rt);
1710         if (is_load) {
1711             do_gpr_ld(s, tcg_rt, tcg_addr, size, is_signed, false);
1712         } else {
1713             do_gpr_st(s, tcg_rt, tcg_addr, size);
1714         }
1715     }
1716     tcg_gen_addi_i64(tcg_addr, tcg_addr, 1 << size);
1717     if (is_vector) {
1718         if (is_load) {
1719             do_fp_ld(s, rt2, tcg_addr, size);
1720         } else {
1721             do_fp_st(s, rt2, tcg_addr, size);
1722         }
1723     } else {
1724         TCGv_i64 tcg_rt2 = cpu_reg(s, rt2);
1725         if (is_load) {
1726             do_gpr_ld(s, tcg_rt2, tcg_addr, size, is_signed, false);
1727         } else {
1728             do_gpr_st(s, tcg_rt2, tcg_addr, size);
1729         }
1730     }
1731
1732     if (wback) {
1733         if (postindex) {
1734             tcg_gen_addi_i64(tcg_addr, tcg_addr, offset - (1 << size));
1735         } else {
1736             tcg_gen_subi_i64(tcg_addr, tcg_addr, 1 << size);
1737         }
1738         tcg_gen_mov_i64(cpu_reg_sp(s, rn), tcg_addr);
1739     }
1740 }
1741
1742 /*
1743  * C3.3.8 Load/store (immediate post-indexed)
1744  * C3.3.9 Load/store (immediate pre-indexed)
1745  * C3.3.12 Load/store (unscaled immediate)
1746  *
1747  * 31 30 29   27  26 25 24 23 22 21  20    12 11 10 9    5 4    0
1748  * +----+-------+---+-----+-----+---+--------+-----+------+------+
1749  * |size| 1 1 1 | V | 0 0 | opc | 0 |  imm9  | idx |  Rn  |  Rt  |
1750  * +----+-------+---+-----+-----+---+--------+-----+------+------+
1751  *
1752  * idx = 01 -> post-indexed, 11 pre-indexed, 00 unscaled imm. (no writeback)
1753  * V = 0 -> non-vector
1754  * size: 00 -> 8 bit, 01 -> 16 bit, 10 -> 32 bit, 11 -> 64bit
1755  * opc: 00 -> store, 01 -> loadu, 10 -> loads 64, 11 -> loads 32
1756  */
1757 static void disas_ldst_reg_imm9(DisasContext *s, uint32_t insn)
1758 {
1759     int rt = extract32(insn, 0, 5);
1760     int rn = extract32(insn, 5, 5);
1761     int imm9 = sextract32(insn, 12, 9);
1762     int opc = extract32(insn, 22, 2);
1763     int size = extract32(insn, 30, 2);
1764     int idx = extract32(insn, 10, 2);
1765     bool is_signed = false;
1766     bool is_store = false;
1767     bool is_extended = false;
1768     bool is_vector = extract32(insn, 26, 1);
1769     bool post_index;
1770     bool writeback;
1771
1772     TCGv_i64 tcg_addr;
1773
1774     if (is_vector) {
1775         size |= (opc & 2) << 1;
1776         if (size > 4) {
1777             unallocated_encoding(s);
1778             return;
1779         }
1780         is_store = ((opc & 1) == 0);
1781     } else {
1782         if (size == 3 && opc == 2) {
1783             /* PRFM - prefetch */
1784             return;
1785         }
1786         if (opc == 3 && size > 1) {
1787             unallocated_encoding(s);
1788             return;
1789         }
1790         is_store = (opc == 0);
1791         is_signed = opc & (1<<1);
1792         is_extended = (size < 3) && (opc & 1);
1793     }
1794
1795     switch (idx) {
1796     case 0:
1797         post_index = false;
1798         writeback = false;
1799         break;
1800     case 1:
1801         post_index = true;
1802         writeback = true;
1803         break;
1804     case 3:
1805         post_index = false;
1806         writeback = true;
1807         break;
1808     case 2:
1809         g_assert(false);
1810         break;
1811     }
1812
1813     if (rn == 31) {
1814         gen_check_sp_alignment(s);
1815     }
1816     tcg_addr = read_cpu_reg_sp(s, rn, 1);
1817
1818     if (!post_index) {
1819         tcg_gen_addi_i64(tcg_addr, tcg_addr, imm9);
1820     }
1821
1822     if (is_vector) {
1823         if (is_store) {
1824             do_fp_st(s, rt, tcg_addr, size);
1825         } else {
1826             do_fp_ld(s, rt, tcg_addr, size);
1827         }
1828     } else {
1829         TCGv_i64 tcg_rt = cpu_reg(s, rt);
1830         if (is_store) {
1831             do_gpr_st(s, tcg_rt, tcg_addr, size);
1832         } else {
1833             do_gpr_ld(s, tcg_rt, tcg_addr, size, is_signed, is_extended);
1834         }
1835     }
1836
1837     if (writeback) {
1838         TCGv_i64 tcg_rn = cpu_reg_sp(s, rn);
1839         if (post_index) {
1840             tcg_gen_addi_i64(tcg_addr, tcg_addr, imm9);
1841         }
1842         tcg_gen_mov_i64(tcg_rn, tcg_addr);
1843     }
1844 }
1845
1846 /*
1847  * C3.3.10 Load/store (register offset)
1848  *
1849  * 31 30 29   27  26 25 24 23 22 21  20  16 15 13 12 11 10 9  5 4  0
1850  * +----+-------+---+-----+-----+---+------+-----+--+-----+----+----+
1851  * |size| 1 1 1 | V | 0 0 | opc | 1 |  Rm  | opt | S| 1 0 | Rn | Rt |
1852  * +----+-------+---+-----+-----+---+------+-----+--+-----+----+----+
1853  *
1854  * For non-vector:
1855  *   size: 00-> byte, 01 -> 16 bit, 10 -> 32bit, 11 -> 64bit
1856  *   opc: 00 -> store, 01 -> loadu, 10 -> loads 64, 11 -> loads 32
1857  * For vector:
1858  *   size is opc<1>:size<1:0> so 100 -> 128 bit; 110 and 111 unallocated
1859  *   opc<0>: 0 -> store, 1 -> load
1860  * V: 1 -> vector/simd
1861  * opt: extend encoding (see DecodeRegExtend)
1862  * S: if S=1 then scale (essentially index by sizeof(size))
1863  * Rt: register to transfer into/out of
1864  * Rn: address register or SP for base
1865  * Rm: offset register or ZR for offset
1866  */
1867 static void disas_ldst_reg_roffset(DisasContext *s, uint32_t insn)
1868 {
1869     int rt = extract32(insn, 0, 5);
1870     int rn = extract32(insn, 5, 5);
1871     int shift = extract32(insn, 12, 1);
1872     int rm = extract32(insn, 16, 5);
1873     int opc = extract32(insn, 22, 2);
1874     int opt = extract32(insn, 13, 3);
1875     int size = extract32(insn, 30, 2);
1876     bool is_signed = false;
1877     bool is_store = false;
1878     bool is_extended = false;
1879     bool is_vector = extract32(insn, 26, 1);
1880
1881     TCGv_i64 tcg_rm;
1882     TCGv_i64 tcg_addr;
1883
1884     if (extract32(opt, 1, 1) == 0) {
1885         unallocated_encoding(s);
1886         return;
1887     }
1888
1889     if (is_vector) {
1890         size |= (opc & 2) << 1;
1891         if (size > 4) {
1892             unallocated_encoding(s);
1893             return;
1894         }
1895         is_store = !extract32(opc, 0, 1);
1896     } else {
1897         if (size == 3 && opc == 2) {
1898             /* PRFM - prefetch */
1899             return;
1900         }
1901         if (opc == 3 && size > 1) {
1902             unallocated_encoding(s);
1903             return;
1904         }
1905         is_store = (opc == 0);
1906         is_signed = extract32(opc, 1, 1);
1907         is_extended = (size < 3) && extract32(opc, 0, 1);
1908     }
1909
1910     if (rn == 31) {
1911         gen_check_sp_alignment(s);
1912     }
1913     tcg_addr = read_cpu_reg_sp(s, rn, 1);
1914
1915     tcg_rm = read_cpu_reg(s, rm, 1);
1916     ext_and_shift_reg(tcg_rm, tcg_rm, opt, shift ? size : 0);
1917
1918     tcg_gen_add_i64(tcg_addr, tcg_addr, tcg_rm);
1919
1920     if (is_vector) {
1921         if (is_store) {
1922             do_fp_st(s, rt, tcg_addr, size);
1923         } else {
1924             do_fp_ld(s, rt, tcg_addr, size);
1925         }
1926     } else {
1927         TCGv_i64 tcg_rt = cpu_reg(s, rt);
1928         if (is_store) {
1929             do_gpr_st(s, tcg_rt, tcg_addr, size);
1930         } else {
1931             do_gpr_ld(s, tcg_rt, tcg_addr, size, is_signed, is_extended);
1932         }
1933     }
1934 }
1935
1936 /*
1937  * C3.3.13 Load/store (unsigned immediate)
1938  *
1939  * 31 30 29   27  26 25 24 23 22 21        10 9     5
1940  * +----+-------+---+-----+-----+------------+-------+------+
1941  * |size| 1 1 1 | V | 0 1 | opc |   imm12    |  Rn   |  Rt  |
1942  * +----+-------+---+-----+-----+------------+-------+------+
1943  *
1944  * For non-vector:
1945  *   size: 00-> byte, 01 -> 16 bit, 10 -> 32bit, 11 -> 64bit
1946  *   opc: 00 -> store, 01 -> loadu, 10 -> loads 64, 11 -> loads 32
1947  * For vector:
1948  *   size is opc<1>:size<1:0> so 100 -> 128 bit; 110 and 111 unallocated
1949  *   opc<0>: 0 -> store, 1 -> load
1950  * Rn: base address register (inc SP)
1951  * Rt: target register
1952  */
1953 static void disas_ldst_reg_unsigned_imm(DisasContext *s, uint32_t insn)
1954 {
1955     int rt = extract32(insn, 0, 5);
1956     int rn = extract32(insn, 5, 5);
1957     unsigned int imm12 = extract32(insn, 10, 12);
1958     bool is_vector = extract32(insn, 26, 1);
1959     int size = extract32(insn, 30, 2);
1960     int opc = extract32(insn, 22, 2);
1961     unsigned int offset;
1962
1963     TCGv_i64 tcg_addr;
1964
1965     bool is_store;
1966     bool is_signed = false;
1967     bool is_extended = false;
1968
1969     if (is_vector) {
1970         size |= (opc & 2) << 1;
1971         if (size > 4) {
1972             unallocated_encoding(s);
1973             return;
1974         }
1975         is_store = !extract32(opc, 0, 1);
1976     } else {
1977         if (size == 3 && opc == 2) {
1978             /* PRFM - prefetch */
1979             return;
1980         }
1981         if (opc == 3 && size > 1) {
1982             unallocated_encoding(s);
1983             return;
1984         }
1985         is_store = (opc == 0);
1986         is_signed = extract32(opc, 1, 1);
1987         is_extended = (size < 3) && extract32(opc, 0, 1);
1988     }
1989
1990     if (rn == 31) {
1991         gen_check_sp_alignment(s);
1992     }
1993     tcg_addr = read_cpu_reg_sp(s, rn, 1);
1994     offset = imm12 << size;
1995     tcg_gen_addi_i64(tcg_addr, tcg_addr, offset);
1996
1997     if (is_vector) {
1998         if (is_store) {
1999             do_fp_st(s, rt, tcg_addr, size);
2000         } else {
2001             do_fp_ld(s, rt, tcg_addr, size);
2002         }
2003     } else {
2004         TCGv_i64 tcg_rt = cpu_reg(s, rt);
2005         if (is_store) {
2006             do_gpr_st(s, tcg_rt, tcg_addr, size);
2007         } else {
2008             do_gpr_ld(s, tcg_rt, tcg_addr, size, is_signed, is_extended);
2009         }
2010     }
2011 }
2012
2013 /* Load/store register (immediate forms) */
2014 static void disas_ldst_reg_imm(DisasContext *s, uint32_t insn)
2015 {
2016     switch (extract32(insn, 10, 2)) {
2017     case 0: case 1: case 3:
2018         /* Load/store register (unscaled immediate) */
2019         /* Load/store immediate pre/post-indexed */
2020         disas_ldst_reg_imm9(s, insn);
2021         break;
2022     case 2:
2023         /* Load/store register unprivileged */
2024         unsupported_encoding(s, insn);
2025         break;
2026     default:
2027         unallocated_encoding(s);
2028         break;
2029     }
2030 }
2031
2032 /* Load/store register (all forms) */
2033 static void disas_ldst_reg(DisasContext *s, uint32_t insn)
2034 {
2035     switch (extract32(insn, 24, 2)) {
2036     case 0:
2037         if (extract32(insn, 21, 1) == 1 && extract32(insn, 10, 2) == 2) {
2038             disas_ldst_reg_roffset(s, insn);
2039         } else {
2040             disas_ldst_reg_imm(s, insn);
2041         }
2042         break;
2043     case 1:
2044         disas_ldst_reg_unsigned_imm(s, insn);
2045         break;
2046     default:
2047         unallocated_encoding(s);
2048         break;
2049     }
2050 }
2051
2052 /* C3.3.1 AdvSIMD load/store multiple structures
2053  *
2054  *  31  30  29           23 22  21         16 15    12 11  10 9    5 4    0
2055  * +---+---+---------------+---+-------------+--------+------+------+------+
2056  * | 0 | Q | 0 0 1 1 0 0 0 | L | 0 0 0 0 0 0 | opcode | size |  Rn  |  Rt  |
2057  * +---+---+---------------+---+-------------+--------+------+------+------+
2058  *
2059  * C3.3.2 AdvSIMD load/store multiple structures (post-indexed)
2060  *
2061  *  31  30  29           23 22  21  20     16 15    12 11  10 9    5 4    0
2062  * +---+---+---------------+---+---+---------+--------+------+------+------+
2063  * | 0 | Q | 0 0 1 1 0 0 1 | L | 0 |   Rm    | opcode | size |  Rn  |  Rt  |
2064  * +---+---+---------------+---+---+---------+--------+------+------+------+
2065  *
2066  * Rt: first (or only) SIMD&FP register to be transferred
2067  * Rn: base address or SP
2068  * Rm (post-index only): post-index register (when !31) or size dependent #imm
2069  */
2070 static void disas_ldst_multiple_struct(DisasContext *s, uint32_t insn)
2071 {
2072     int rt = extract32(insn, 0, 5);
2073     int rn = extract32(insn, 5, 5);
2074     int size = extract32(insn, 10, 2);
2075     int opcode = extract32(insn, 12, 4);
2076     bool is_store = !extract32(insn, 22, 1);
2077     bool is_postidx = extract32(insn, 23, 1);
2078     bool is_q = extract32(insn, 30, 1);
2079     TCGv_i64 tcg_addr, tcg_rn;
2080
2081     int ebytes = 1 << size;
2082     int elements = (is_q ? 128 : 64) / (8 << size);
2083     int rpt;    /* num iterations */
2084     int selem;  /* structure elements */
2085     int r;
2086
2087     if (extract32(insn, 31, 1) || extract32(insn, 21, 1)) {
2088         unallocated_encoding(s);
2089         return;
2090     }
2091
2092     /* From the shared decode logic */
2093     switch (opcode) {
2094     case 0x0:
2095         rpt = 1;
2096         selem = 4;
2097         break;
2098     case 0x2:
2099         rpt = 4;
2100         selem = 1;
2101         break;
2102     case 0x4:
2103         rpt = 1;
2104         selem = 3;
2105         break;
2106     case 0x6:
2107         rpt = 3;
2108         selem = 1;
2109         break;
2110     case 0x7:
2111         rpt = 1;
2112         selem = 1;
2113         break;
2114     case 0x8:
2115         rpt = 1;
2116         selem = 2;
2117         break;
2118     case 0xa:
2119         rpt = 2;
2120         selem = 1;
2121         break;
2122     default:
2123         unallocated_encoding(s);
2124         return;
2125     }
2126
2127     if (size == 3 && !is_q && selem != 1) {
2128         /* reserved */
2129         unallocated_encoding(s);
2130         return;
2131     }
2132
2133     if (rn == 31) {
2134         gen_check_sp_alignment(s);
2135     }
2136
2137     tcg_rn = cpu_reg_sp(s, rn);
2138     tcg_addr = tcg_temp_new_i64();
2139     tcg_gen_mov_i64(tcg_addr, tcg_rn);
2140
2141     for (r = 0; r < rpt; r++) {
2142         int e;
2143         for (e = 0; e < elements; e++) {
2144             int tt = (rt + r) % 32;
2145             int xs;
2146             for (xs = 0; xs < selem; xs++) {
2147                 if (is_store) {
2148                     do_vec_st(s, tt, e, tcg_addr, size);
2149                 } else {
2150                     do_vec_ld(s, tt, e, tcg_addr, size);
2151
2152                     /* For non-quad operations, setting a slice of the low
2153                      * 64 bits of the register clears the high 64 bits (in
2154                      * the ARM ARM pseudocode this is implicit in the fact
2155                      * that 'rval' is a 64 bit wide variable). We optimize
2156                      * by noticing that we only need to do this the first
2157                      * time we touch a register.
2158                      */
2159                     if (!is_q && e == 0 && (r == 0 || xs == selem - 1)) {
2160                         clear_vec_high(s, tt);
2161                     }
2162                 }
2163                 tcg_gen_addi_i64(tcg_addr, tcg_addr, ebytes);
2164                 tt = (tt + 1) % 32;
2165             }
2166         }
2167     }
2168
2169     if (is_postidx) {
2170         int rm = extract32(insn, 16, 5);
2171         if (rm == 31) {
2172             tcg_gen_mov_i64(tcg_rn, tcg_addr);
2173         } else {
2174             tcg_gen_add_i64(tcg_rn, tcg_rn, cpu_reg(s, rm));
2175         }
2176     }
2177     tcg_temp_free_i64(tcg_addr);
2178 }
2179
2180 /* C3.3.3 AdvSIMD load/store single structure
2181  *
2182  *  31  30  29           23 22 21 20       16 15 13 12  11  10 9    5 4    0
2183  * +---+---+---------------+-----+-----------+-----+---+------+------+------+
2184  * | 0 | Q | 0 0 1 1 0 1 0 | L R | 0 0 0 0 0 | opc | S | size |  Rn  |  Rt  |
2185  * +---+---+---------------+-----+-----------+-----+---+------+------+------+
2186  *
2187  * C3.3.4 AdvSIMD load/store single structure (post-indexed)
2188  *
2189  *  31  30  29           23 22 21 20       16 15 13 12  11  10 9    5 4    0
2190  * +---+---+---------------+-----+-----------+-----+---+------+------+------+
2191  * | 0 | Q | 0 0 1 1 0 1 1 | L R |     Rm    | opc | S | size |  Rn  |  Rt  |
2192  * +---+---+---------------+-----+-----------+-----+---+------+------+------+
2193  *
2194  * Rt: first (or only) SIMD&FP register to be transferred
2195  * Rn: base address or SP
2196  * Rm (post-index only): post-index register (when !31) or size dependent #imm
2197  * index = encoded in Q:S:size dependent on size
2198  *
2199  * lane_size = encoded in R, opc
2200  * transfer width = encoded in opc, S, size
2201  */
2202 static void disas_ldst_single_struct(DisasContext *s, uint32_t insn)
2203 {
2204     int rt = extract32(insn, 0, 5);
2205     int rn = extract32(insn, 5, 5);
2206     int size = extract32(insn, 10, 2);
2207     int S = extract32(insn, 12, 1);
2208     int opc = extract32(insn, 13, 3);
2209     int R = extract32(insn, 21, 1);
2210     int is_load = extract32(insn, 22, 1);
2211     int is_postidx = extract32(insn, 23, 1);
2212     int is_q = extract32(insn, 30, 1);
2213
2214     int scale = extract32(opc, 1, 2);
2215     int selem = (extract32(opc, 0, 1) << 1 | R) + 1;
2216     bool replicate = false;
2217     int index = is_q << 3 | S << 2 | size;
2218     int ebytes, xs;
2219     TCGv_i64 tcg_addr, tcg_rn;
2220
2221     switch (scale) {
2222     case 3:
2223         if (!is_load || S) {
2224             unallocated_encoding(s);
2225             return;
2226         }
2227         scale = size;
2228         replicate = true;
2229         break;
2230     case 0:
2231         break;
2232     case 1:
2233         if (extract32(size, 0, 1)) {
2234             unallocated_encoding(s);
2235             return;
2236         }
2237         index >>= 1;
2238         break;
2239     case 2:
2240         if (extract32(size, 1, 1)) {
2241             unallocated_encoding(s);
2242             return;
2243         }
2244         if (!extract32(size, 0, 1)) {
2245             index >>= 2;
2246         } else {
2247             if (S) {
2248                 unallocated_encoding(s);
2249                 return;
2250             }
2251             index >>= 3;
2252             scale = 3;
2253         }
2254         break;
2255     default:
2256         g_assert_not_reached();
2257     }
2258
2259     ebytes = 1 << scale;
2260
2261     if (rn == 31) {
2262         gen_check_sp_alignment(s);
2263     }
2264
2265     tcg_rn = cpu_reg_sp(s, rn);
2266     tcg_addr = tcg_temp_new_i64();
2267     tcg_gen_mov_i64(tcg_addr, tcg_rn);
2268
2269     for (xs = 0; xs < selem; xs++) {
2270         if (replicate) {
2271             /* Load and replicate to all elements */
2272             uint64_t mulconst;
2273             TCGv_i64 tcg_tmp = tcg_temp_new_i64();
2274
2275             tcg_gen_qemu_ld_i64(tcg_tmp, tcg_addr,
2276                                 get_mem_index(s), MO_TE + scale);
2277             switch (scale) {
2278             case 0:
2279                 mulconst = 0x0101010101010101ULL;
2280                 break;
2281             case 1:
2282                 mulconst = 0x0001000100010001ULL;
2283                 break;
2284             case 2:
2285                 mulconst = 0x0000000100000001ULL;
2286                 break;
2287             case 3:
2288                 mulconst = 0;
2289                 break;
2290             default:
2291                 g_assert_not_reached();
2292             }
2293             if (mulconst) {
2294                 tcg_gen_muli_i64(tcg_tmp, tcg_tmp, mulconst);
2295             }
2296             write_vec_element(s, tcg_tmp, rt, 0, MO_64);
2297             if (is_q) {
2298                 write_vec_element(s, tcg_tmp, rt, 1, MO_64);
2299             } else {
2300                 clear_vec_high(s, rt);
2301             }
2302             tcg_temp_free_i64(tcg_tmp);
2303         } else {
2304             /* Load/store one element per register */
2305             if (is_load) {
2306                 do_vec_ld(s, rt, index, tcg_addr, MO_TE + scale);
2307             } else {
2308                 do_vec_st(s, rt, index, tcg_addr, MO_TE + scale);
2309             }
2310         }
2311         tcg_gen_addi_i64(tcg_addr, tcg_addr, ebytes);
2312         rt = (rt + 1) % 32;
2313     }
2314
2315     if (is_postidx) {
2316         int rm = extract32(insn, 16, 5);
2317         if (rm == 31) {
2318             tcg_gen_mov_i64(tcg_rn, tcg_addr);
2319         } else {
2320             tcg_gen_add_i64(tcg_rn, tcg_rn, cpu_reg(s, rm));
2321         }
2322     }
2323     tcg_temp_free_i64(tcg_addr);
2324 }
2325
2326 /* C3.3 Loads and stores */
2327 static void disas_ldst(DisasContext *s, uint32_t insn)
2328 {
2329     switch (extract32(insn, 24, 6)) {
2330     case 0x08: /* Load/store exclusive */
2331         disas_ldst_excl(s, insn);
2332         break;
2333     case 0x18: case 0x1c: /* Load register (literal) */
2334         disas_ld_lit(s, insn);
2335         break;
2336     case 0x28: case 0x29:
2337     case 0x2c: case 0x2d: /* Load/store pair (all forms) */
2338         disas_ldst_pair(s, insn);
2339         break;
2340     case 0x38: case 0x39:
2341     case 0x3c: case 0x3d: /* Load/store register (all forms) */
2342         disas_ldst_reg(s, insn);
2343         break;
2344     case 0x0c: /* AdvSIMD load/store multiple structures */
2345         disas_ldst_multiple_struct(s, insn);
2346         break;
2347     case 0x0d: /* AdvSIMD load/store single structure */
2348         disas_ldst_single_struct(s, insn);
2349         break;
2350     default:
2351         unallocated_encoding(s);
2352         break;
2353     }
2354 }
2355
2356 /* C3.4.6 PC-rel. addressing
2357  *   31  30   29 28       24 23                5 4    0
2358  * +----+-------+-----------+-------------------+------+
2359  * | op | immlo | 1 0 0 0 0 |       immhi       |  Rd  |
2360  * +----+-------+-----------+-------------------+------+
2361  */
2362 static void disas_pc_rel_adr(DisasContext *s, uint32_t insn)
2363 {
2364     unsigned int page, rd;
2365     uint64_t base;
2366     int64_t offset;
2367
2368     page = extract32(insn, 31, 1);
2369     /* SignExtend(immhi:immlo) -> offset */
2370     offset = ((int64_t)sextract32(insn, 5, 19) << 2) | extract32(insn, 29, 2);
2371     rd = extract32(insn, 0, 5);
2372     base = s->pc - 4;
2373
2374     if (page) {
2375         /* ADRP (page based) */
2376         base &= ~0xfff;
2377         offset <<= 12;
2378     }
2379
2380     tcg_gen_movi_i64(cpu_reg(s, rd), base + offset);
2381 }
2382
2383 /*
2384  * C3.4.1 Add/subtract (immediate)
2385  *
2386  *  31 30 29 28       24 23 22 21         10 9   5 4   0
2387  * +--+--+--+-----------+-----+-------------+-----+-----+
2388  * |sf|op| S| 1 0 0 0 1 |shift|    imm12    |  Rn | Rd  |
2389  * +--+--+--+-----------+-----+-------------+-----+-----+
2390  *
2391  *    sf: 0 -> 32bit, 1 -> 64bit
2392  *    op: 0 -> add  , 1 -> sub
2393  *     S: 1 -> set flags
2394  * shift: 00 -> LSL imm by 0, 01 -> LSL imm by 12
2395  */
2396 static void disas_add_sub_imm(DisasContext *s, uint32_t insn)
2397 {
2398     int rd = extract32(insn, 0, 5);
2399     int rn = extract32(insn, 5, 5);
2400     uint64_t imm = extract32(insn, 10, 12);
2401     int shift = extract32(insn, 22, 2);
2402     bool setflags = extract32(insn, 29, 1);
2403     bool sub_op = extract32(insn, 30, 1);
2404     bool is_64bit = extract32(insn, 31, 1);
2405
2406     TCGv_i64 tcg_rn = cpu_reg_sp(s, rn);
2407     TCGv_i64 tcg_rd = setflags ? cpu_reg(s, rd) : cpu_reg_sp(s, rd);
2408     TCGv_i64 tcg_result;
2409
2410     switch (shift) {
2411     case 0x0:
2412         break;
2413     case 0x1:
2414         imm <<= 12;
2415         break;
2416     default:
2417         unallocated_encoding(s);
2418         return;
2419     }
2420
2421     tcg_result = tcg_temp_new_i64();
2422     if (!setflags) {
2423         if (sub_op) {
2424             tcg_gen_subi_i64(tcg_result, tcg_rn, imm);
2425         } else {
2426             tcg_gen_addi_i64(tcg_result, tcg_rn, imm);
2427         }
2428     } else {
2429         TCGv_i64 tcg_imm = tcg_const_i64(imm);
2430         if (sub_op) {
2431             gen_sub_CC(is_64bit, tcg_result, tcg_rn, tcg_imm);
2432         } else {
2433             gen_add_CC(is_64bit, tcg_result, tcg_rn, tcg_imm);
2434         }
2435         tcg_temp_free_i64(tcg_imm);
2436     }
2437
2438     if (is_64bit) {
2439         tcg_gen_mov_i64(tcg_rd, tcg_result);
2440     } else {
2441         tcg_gen_ext32u_i64(tcg_rd, tcg_result);
2442     }
2443
2444     tcg_temp_free_i64(tcg_result);
2445 }
2446
2447 /* The input should be a value in the bottom e bits (with higher
2448  * bits zero); returns that value replicated into every element
2449  * of size e in a 64 bit integer.
2450  */
2451 static uint64_t bitfield_replicate(uint64_t mask, unsigned int e)
2452 {
2453     assert(e != 0);
2454     while (e < 64) {
2455         mask |= mask << e;
2456         e *= 2;
2457     }
2458     return mask;
2459 }
2460
2461 /* Return a value with the bottom len bits set (where 0 < len <= 64) */
2462 static inline uint64_t bitmask64(unsigned int length)
2463 {
2464     assert(length > 0 && length <= 64);
2465     return ~0ULL >> (64 - length);
2466 }
2467
2468 /* Simplified variant of pseudocode DecodeBitMasks() for the case where we
2469  * only require the wmask. Returns false if the imms/immr/immn are a reserved
2470  * value (ie should cause a guest UNDEF exception), and true if they are
2471  * valid, in which case the decoded bit pattern is written to result.
2472  */
2473 static bool logic_imm_decode_wmask(uint64_t *result, unsigned int immn,
2474                                    unsigned int imms, unsigned int immr)
2475 {
2476     uint64_t mask;
2477     unsigned e, levels, s, r;
2478     int len;
2479
2480     assert(immn < 2 && imms < 64 && immr < 64);
2481
2482     /* The bit patterns we create here are 64 bit patterns which
2483      * are vectors of identical elements of size e = 2, 4, 8, 16, 32 or
2484      * 64 bits each. Each element contains the same value: a run
2485      * of between 1 and e-1 non-zero bits, rotated within the
2486      * element by between 0 and e-1 bits.
2487      *
2488      * The element size and run length are encoded into immn (1 bit)
2489      * and imms (6 bits) as follows:
2490      * 64 bit elements: immn = 1, imms = <length of run - 1>
2491      * 32 bit elements: immn = 0, imms = 0 : <length of run - 1>
2492      * 16 bit elements: immn = 0, imms = 10 : <length of run - 1>
2493      *  8 bit elements: immn = 0, imms = 110 : <length of run - 1>
2494      *  4 bit elements: immn = 0, imms = 1110 : <length of run - 1>
2495      *  2 bit elements: immn = 0, imms = 11110 : <length of run - 1>
2496      * Notice that immn = 0, imms = 11111x is the only combination
2497      * not covered by one of the above options; this is reserved.
2498      * Further, <length of run - 1> all-ones is a reserved pattern.
2499      *
2500      * In all cases the rotation is by immr % e (and immr is 6 bits).
2501      */
2502
2503     /* First determine the element size */
2504     len = 31 - clz32((immn << 6) | (~imms & 0x3f));
2505     if (len < 1) {
2506         /* This is the immn == 0, imms == 0x11111x case */
2507         return false;
2508     }
2509     e = 1 << len;
2510
2511     levels = e - 1;
2512     s = imms & levels;
2513     r = immr & levels;
2514
2515     if (s == levels) {
2516         /* <length of run - 1> mustn't be all-ones. */
2517         return false;
2518     }
2519
2520     /* Create the value of one element: s+1 set bits rotated
2521      * by r within the element (which is e bits wide)...
2522      */
2523     mask = bitmask64(s + 1);
2524     mask = (mask >> r) | (mask << (e - r));
2525     /* ...then replicate the element over the whole 64 bit value */
2526     mask = bitfield_replicate(mask, e);
2527     *result = mask;
2528     return true;
2529 }
2530
2531 /* C3.4.4 Logical (immediate)
2532  *   31  30 29 28         23 22  21  16 15  10 9    5 4    0
2533  * +----+-----+-------------+---+------+------+------+------+
2534  * | sf | opc | 1 0 0 1 0 0 | N | immr | imms |  Rn  |  Rd  |
2535  * +----+-----+-------------+---+------+------+------+------+
2536  */
2537 static void disas_logic_imm(DisasContext *s, uint32_t insn)
2538 {
2539     unsigned int sf, opc, is_n, immr, imms, rn, rd;
2540     TCGv_i64 tcg_rd, tcg_rn;
2541     uint64_t wmask;
2542     bool is_and = false;
2543
2544     sf = extract32(insn, 31, 1);
2545     opc = extract32(insn, 29, 2);
2546     is_n = extract32(insn, 22, 1);
2547     immr = extract32(insn, 16, 6);
2548     imms = extract32(insn, 10, 6);
2549     rn = extract32(insn, 5, 5);
2550     rd = extract32(insn, 0, 5);
2551
2552     if (!sf && is_n) {
2553         unallocated_encoding(s);
2554         return;
2555     }
2556
2557     if (opc == 0x3) { /* ANDS */
2558         tcg_rd = cpu_reg(s, rd);
2559     } else {
2560         tcg_rd = cpu_reg_sp(s, rd);
2561     }
2562     tcg_rn = cpu_reg(s, rn);
2563
2564     if (!logic_imm_decode_wmask(&wmask, is_n, imms, immr)) {
2565         /* some immediate field values are reserved */
2566         unallocated_encoding(s);
2567         return;
2568     }
2569
2570     if (!sf) {
2571         wmask &= 0xffffffff;
2572     }
2573
2574     switch (opc) {
2575     case 0x3: /* ANDS */
2576     case 0x0: /* AND */
2577         tcg_gen_andi_i64(tcg_rd, tcg_rn, wmask);
2578         is_and = true;
2579         break;
2580     case 0x1: /* ORR */
2581         tcg_gen_ori_i64(tcg_rd, tcg_rn, wmask);
2582         break;
2583     case 0x2: /* EOR */
2584         tcg_gen_xori_i64(tcg_rd, tcg_rn, wmask);
2585         break;
2586     default:
2587         assert(FALSE); /* must handle all above */
2588         break;
2589     }
2590
2591     if (!sf && !is_and) {
2592         /* zero extend final result; we know we can skip this for AND
2593          * since the immediate had the high 32 bits clear.
2594          */
2595         tcg_gen_ext32u_i64(tcg_rd, tcg_rd);
2596     }
2597
2598     if (opc == 3) { /* ANDS */
2599         gen_logic_CC(sf, tcg_rd);
2600     }
2601 }
2602
2603 /*
2604  * C3.4.5 Move wide (immediate)
2605  *
2606  *  31 30 29 28         23 22 21 20             5 4    0
2607  * +--+-----+-------------+-----+----------------+------+
2608  * |sf| opc | 1 0 0 1 0 1 |  hw |  imm16         |  Rd  |
2609  * +--+-----+-------------+-----+----------------+------+
2610  *
2611  * sf: 0 -> 32 bit, 1 -> 64 bit
2612  * opc: 00 -> N, 10 -> Z, 11 -> K
2613  * hw: shift/16 (0,16, and sf only 32, 48)
2614  */
2615 static void disas_movw_imm(DisasContext *s, uint32_t insn)
2616 {
2617     int rd = extract32(insn, 0, 5);
2618     uint64_t imm = extract32(insn, 5, 16);
2619     int sf = extract32(insn, 31, 1);
2620     int opc = extract32(insn, 29, 2);
2621     int pos = extract32(insn, 21, 2) << 4;
2622     TCGv_i64 tcg_rd = cpu_reg(s, rd);
2623     TCGv_i64 tcg_imm;
2624
2625     if (!sf && (pos >= 32)) {
2626         unallocated_encoding(s);
2627         return;
2628     }
2629
2630     switch (opc) {
2631     case 0: /* MOVN */
2632     case 2: /* MOVZ */
2633         imm <<= pos;
2634         if (opc == 0) {
2635             imm = ~imm;
2636         }
2637         if (!sf) {
2638             imm &= 0xffffffffu;
2639         }
2640         tcg_gen_movi_i64(tcg_rd, imm);
2641         break;
2642     case 3: /* MOVK */
2643         tcg_imm = tcg_const_i64(imm);
2644         tcg_gen_deposit_i64(tcg_rd, tcg_rd, tcg_imm, pos, 16);
2645         tcg_temp_free_i64(tcg_imm);
2646         if (!sf) {
2647             tcg_gen_ext32u_i64(tcg_rd, tcg_rd);
2648         }
2649         break;
2650     default:
2651         unallocated_encoding(s);
2652         break;
2653     }
2654 }
2655
2656 /* C3.4.2 Bitfield
2657  *   31  30 29 28         23 22  21  16 15  10 9    5 4    0
2658  * +----+-----+-------------+---+------+------+------+------+
2659  * | sf | opc | 1 0 0 1 1 0 | N | immr | imms |  Rn  |  Rd  |
2660  * +----+-----+-------------+---+------+------+------+------+
2661  */
2662 static void disas_bitfield(DisasContext *s, uint32_t insn)
2663 {
2664     unsigned int sf, n, opc, ri, si, rn, rd, bitsize, pos, len;
2665     TCGv_i64 tcg_rd, tcg_tmp;
2666
2667     sf = extract32(insn, 31, 1);
2668     opc = extract32(insn, 29, 2);
2669     n = extract32(insn, 22, 1);
2670     ri = extract32(insn, 16, 6);
2671     si = extract32(insn, 10, 6);
2672     rn = extract32(insn, 5, 5);
2673     rd = extract32(insn, 0, 5);
2674     bitsize = sf ? 64 : 32;
2675
2676     if (sf != n || ri >= bitsize || si >= bitsize || opc > 2) {
2677         unallocated_encoding(s);
2678         return;
2679     }
2680
2681     tcg_rd = cpu_reg(s, rd);
2682     tcg_tmp = read_cpu_reg(s, rn, sf);
2683
2684     /* OPTME: probably worth recognizing common cases of ext{8,16,32}{u,s} */
2685
2686     if (opc != 1) { /* SBFM or UBFM */
2687         tcg_gen_movi_i64(tcg_rd, 0);
2688     }
2689
2690     /* do the bit move operation */
2691     if (si >= ri) {
2692         /* Wd<s-r:0> = Wn<s:r> */
2693         tcg_gen_shri_i64(tcg_tmp, tcg_tmp, ri);
2694         pos = 0;
2695         len = (si - ri) + 1;
2696     } else {
2697         /* Wd<32+s-r,32-r> = Wn<s:0> */
2698         pos = bitsize - ri;
2699         len = si + 1;
2700     }
2701
2702     tcg_gen_deposit_i64(tcg_rd, tcg_rd, tcg_tmp, pos, len);
2703
2704     if (opc == 0) { /* SBFM - sign extend the destination field */
2705         tcg_gen_shli_i64(tcg_rd, tcg_rd, 64 - (pos + len));
2706         tcg_gen_sari_i64(tcg_rd, tcg_rd, 64 - (pos + len));
2707     }
2708
2709     if (!sf) { /* zero extend final result */
2710         tcg_gen_ext32u_i64(tcg_rd, tcg_rd);
2711     }
2712 }
2713
2714 /* C3.4.3 Extract
2715  *   31  30  29 28         23 22   21  20  16 15    10 9    5 4    0
2716  * +----+------+-------------+---+----+------+--------+------+------+
2717  * | sf | op21 | 1 0 0 1 1 1 | N | o0 |  Rm  |  imms  |  Rn  |  Rd  |
2718  * +----+------+-------------+---+----+------+--------+------+------+
2719  */
2720 static void disas_extract(DisasContext *s, uint32_t insn)
2721 {
2722     unsigned int sf, n, rm, imm, rn, rd, bitsize, op21, op0;
2723
2724     sf = extract32(insn, 31, 1);
2725     n = extract32(insn, 22, 1);
2726     rm = extract32(insn, 16, 5);
2727     imm = extract32(insn, 10, 6);
2728     rn = extract32(insn, 5, 5);
2729     rd = extract32(insn, 0, 5);
2730     op21 = extract32(insn, 29, 2);
2731     op0 = extract32(insn, 21, 1);
2732     bitsize = sf ? 64 : 32;
2733
2734     if (sf != n || op21 || op0 || imm >= bitsize) {
2735         unallocated_encoding(s);
2736     } else {
2737         TCGv_i64 tcg_rd, tcg_rm, tcg_rn;
2738
2739         tcg_rd = cpu_reg(s, rd);
2740
2741         if (imm) {
2742             /* OPTME: we can special case rm==rn as a rotate */
2743             tcg_rm = read_cpu_reg(s, rm, sf);
2744             tcg_rn = read_cpu_reg(s, rn, sf);
2745             tcg_gen_shri_i64(tcg_rm, tcg_rm, imm);
2746             tcg_gen_shli_i64(tcg_rn, tcg_rn, bitsize - imm);
2747             tcg_gen_or_i64(tcg_rd, tcg_rm, tcg_rn);
2748             if (!sf) {
2749                 tcg_gen_ext32u_i64(tcg_rd, tcg_rd);
2750             }
2751         } else {
2752             /* tcg shl_i32/shl_i64 is undefined for 32/64 bit shifts,
2753              * so an extract from bit 0 is a special case.
2754              */
2755             if (sf) {
2756                 tcg_gen_mov_i64(tcg_rd, cpu_reg(s, rm));
2757             } else {
2758                 tcg_gen_ext32u_i64(tcg_rd, cpu_reg(s, rm));
2759             }
2760         }
2761
2762     }
2763 }
2764
2765 /* C3.4 Data processing - immediate */
2766 static void disas_data_proc_imm(DisasContext *s, uint32_t insn)
2767 {
2768     switch (extract32(insn, 23, 6)) {
2769     case 0x20: case 0x21: /* PC-rel. addressing */
2770         disas_pc_rel_adr(s, insn);
2771         break;
2772     case 0x22: case 0x23: /* Add/subtract (immediate) */
2773         disas_add_sub_imm(s, insn);
2774         break;
2775     case 0x24: /* Logical (immediate) */
2776         disas_logic_imm(s, insn);
2777         break;
2778     case 0x25: /* Move wide (immediate) */
2779         disas_movw_imm(s, insn);
2780         break;
2781     case 0x26: /* Bitfield */
2782         disas_bitfield(s, insn);
2783         break;
2784     case 0x27: /* Extract */
2785         disas_extract(s, insn);
2786         break;
2787     default:
2788         unallocated_encoding(s);
2789         break;
2790     }
2791 }
2792
2793 /* Shift a TCGv src by TCGv shift_amount, put result in dst.
2794  * Note that it is the caller's responsibility to ensure that the
2795  * shift amount is in range (ie 0..31 or 0..63) and provide the ARM
2796  * mandated semantics for out of range shifts.
2797  */
2798 static void shift_reg(TCGv_i64 dst, TCGv_i64 src, int sf,
2799                       enum a64_shift_type shift_type, TCGv_i64 shift_amount)
2800 {
2801     switch (shift_type) {
2802     case A64_SHIFT_TYPE_LSL:
2803         tcg_gen_shl_i64(dst, src, shift_amount);
2804         break;
2805     case A64_SHIFT_TYPE_LSR:
2806         tcg_gen_shr_i64(dst, src, shift_amount);
2807         break;
2808     case A64_SHIFT_TYPE_ASR:
2809         if (!sf) {
2810             tcg_gen_ext32s_i64(dst, src);
2811         }
2812         tcg_gen_sar_i64(dst, sf ? src : dst, shift_amount);
2813         break;
2814     case A64_SHIFT_TYPE_ROR:
2815         if (sf) {
2816             tcg_gen_rotr_i64(dst, src, shift_amount);
2817         } else {
2818             TCGv_i32 t0, t1;
2819             t0 = tcg_temp_new_i32();
2820             t1 = tcg_temp_new_i32();
2821             tcg_gen_trunc_i64_i32(t0, src);
2822             tcg_gen_trunc_i64_i32(t1, shift_amount);
2823             tcg_gen_rotr_i32(t0, t0, t1);
2824             tcg_gen_extu_i32_i64(dst, t0);
2825             tcg_temp_free_i32(t0);
2826             tcg_temp_free_i32(t1);
2827         }
2828         break;
2829     default:
2830         assert(FALSE); /* all shift types should be handled */
2831         break;
2832     }
2833
2834     if (!sf) { /* zero extend final result */
2835         tcg_gen_ext32u_i64(dst, dst);
2836     }
2837 }
2838
2839 /* Shift a TCGv src by immediate, put result in dst.
2840  * The shift amount must be in range (this should always be true as the
2841  * relevant instructions will UNDEF on bad shift immediates).
2842  */
2843 static void shift_reg_imm(TCGv_i64 dst, TCGv_i64 src, int sf,
2844                           enum a64_shift_type shift_type, unsigned int shift_i)
2845 {
2846     assert(shift_i < (sf ? 64 : 32));
2847
2848     if (shift_i == 0) {
2849         tcg_gen_mov_i64(dst, src);
2850     } else {
2851         TCGv_i64 shift_const;
2852
2853         shift_const = tcg_const_i64(shift_i);
2854         shift_reg(dst, src, sf, shift_type, shift_const);
2855         tcg_temp_free_i64(shift_const);
2856     }
2857 }
2858
2859 /* C3.5.10 Logical (shifted register)
2860  *   31  30 29 28       24 23   22 21  20  16 15    10 9    5 4    0
2861  * +----+-----+-----------+-------+---+------+--------+------+------+
2862  * | sf | opc | 0 1 0 1 0 | shift | N |  Rm  |  imm6  |  Rn  |  Rd  |
2863  * +----+-----+-----------+-------+---+------+--------+------+------+
2864  */
2865 static void disas_logic_reg(DisasContext *s, uint32_t insn)
2866 {
2867     TCGv_i64 tcg_rd, tcg_rn, tcg_rm;
2868     unsigned int sf, opc, shift_type, invert, rm, shift_amount, rn, rd;
2869
2870     sf = extract32(insn, 31, 1);
2871     opc = extract32(insn, 29, 2);
2872     shift_type = extract32(insn, 22, 2);
2873     invert = extract32(insn, 21, 1);
2874     rm = extract32(insn, 16, 5);
2875     shift_amount = extract32(insn, 10, 6);
2876     rn = extract32(insn, 5, 5);
2877     rd = extract32(insn, 0, 5);
2878
2879     if (!sf && (shift_amount & (1 << 5))) {
2880         unallocated_encoding(s);
2881         return;
2882     }
2883
2884     tcg_rd = cpu_reg(s, rd);
2885
2886     if (opc == 1 && shift_amount == 0 && shift_type == 0 && rn == 31) {
2887         /* Unshifted ORR and ORN with WZR/XZR is the standard encoding for
2888          * register-register MOV and MVN, so it is worth special casing.
2889          */
2890         tcg_rm = cpu_reg(s, rm);
2891         if (invert) {
2892             tcg_gen_not_i64(tcg_rd, tcg_rm);
2893             if (!sf) {
2894                 tcg_gen_ext32u_i64(tcg_rd, tcg_rd);
2895             }
2896         } else {
2897             if (sf) {
2898                 tcg_gen_mov_i64(tcg_rd, tcg_rm);
2899             } else {
2900                 tcg_gen_ext32u_i64(tcg_rd, tcg_rm);
2901             }
2902         }
2903         return;
2904     }
2905
2906     tcg_rm = read_cpu_reg(s, rm, sf);
2907
2908     if (shift_amount) {
2909         shift_reg_imm(tcg_rm, tcg_rm, sf, shift_type, shift_amount);
2910     }
2911
2912     tcg_rn = cpu_reg(s, rn);
2913
2914     switch (opc | (invert << 2)) {
2915     case 0: /* AND */
2916     case 3: /* ANDS */
2917         tcg_gen_and_i64(tcg_rd, tcg_rn, tcg_rm);
2918         break;
2919     case 1: /* ORR */
2920         tcg_gen_or_i64(tcg_rd, tcg_rn, tcg_rm);
2921         break;
2922     case 2: /* EOR */
2923         tcg_gen_xor_i64(tcg_rd, tcg_rn, tcg_rm);
2924         break;
2925     case 4: /* BIC */
2926     case 7: /* BICS */
2927         tcg_gen_andc_i64(tcg_rd, tcg_rn, tcg_rm);
2928         break;
2929     case 5: /* ORN */
2930         tcg_gen_orc_i64(tcg_rd, tcg_rn, tcg_rm);
2931         break;
2932     case 6: /* EON */
2933         tcg_gen_eqv_i64(tcg_rd, tcg_rn, tcg_rm);
2934         break;
2935     default:
2936         assert(FALSE);
2937         break;
2938     }
2939
2940     if (!sf) {
2941         tcg_gen_ext32u_i64(tcg_rd, tcg_rd);
2942     }
2943
2944     if (opc == 3) {
2945         gen_logic_CC(sf, tcg_rd);
2946     }
2947 }
2948
2949 /*
2950  * C3.5.1 Add/subtract (extended register)
2951  *
2952  *  31|30|29|28       24|23 22|21|20   16|15  13|12  10|9  5|4  0|
2953  * +--+--+--+-----------+-----+--+-------+------+------+----+----+
2954  * |sf|op| S| 0 1 0 1 1 | opt | 1|  Rm   |option| imm3 | Rn | Rd |
2955  * +--+--+--+-----------+-----+--+-------+------+------+----+----+
2956  *
2957  *  sf: 0 -> 32bit, 1 -> 64bit
2958  *  op: 0 -> add  , 1 -> sub
2959  *   S: 1 -> set flags
2960  * opt: 00
2961  * option: extension type (see DecodeRegExtend)
2962  * imm3: optional shift to Rm
2963  *
2964  * Rd = Rn + LSL(extend(Rm), amount)
2965  */
2966 static void disas_add_sub_ext_reg(DisasContext *s, uint32_t insn)
2967 {
2968     int rd = extract32(insn, 0, 5);
2969     int rn = extract32(insn, 5, 5);
2970     int imm3 = extract32(insn, 10, 3);
2971     int option = extract32(insn, 13, 3);
2972     int rm = extract32(insn, 16, 5);
2973     bool setflags = extract32(insn, 29, 1);
2974     bool sub_op = extract32(insn, 30, 1);
2975     bool sf = extract32(insn, 31, 1);
2976
2977     TCGv_i64 tcg_rm, tcg_rn; /* temps */
2978     TCGv_i64 tcg_rd;
2979     TCGv_i64 tcg_result;
2980
2981     if (imm3 > 4) {
2982         unallocated_encoding(s);
2983         return;
2984     }
2985
2986     /* non-flag setting ops may use SP */
2987     if (!setflags) {
2988         tcg_rn = read_cpu_reg_sp(s, rn, sf);
2989         tcg_rd = cpu_reg_sp(s, rd);
2990     } else {
2991         tcg_rn = read_cpu_reg(s, rn, sf);
2992         tcg_rd = cpu_reg(s, rd);
2993     }
2994
2995     tcg_rm = read_cpu_reg(s, rm, sf);
2996     ext_and_shift_reg(tcg_rm, tcg_rm, option, imm3);
2997
2998     tcg_result = tcg_temp_new_i64();
2999
3000     if (!setflags) {
3001         if (sub_op) {
3002             tcg_gen_sub_i64(tcg_result, tcg_rn, tcg_rm);
3003         } else {
3004             tcg_gen_add_i64(tcg_result, tcg_rn, tcg_rm);
3005         }
3006     } else {
3007         if (sub_op) {
3008             gen_sub_CC(sf, tcg_result, tcg_rn, tcg_rm);
3009         } else {
3010             gen_add_CC(sf, tcg_result, tcg_rn, tcg_rm);
3011         }
3012     }
3013
3014     if (sf) {
3015         tcg_gen_mov_i64(tcg_rd, tcg_result);
3016     } else {
3017         tcg_gen_ext32u_i64(tcg_rd, tcg_result);
3018     }
3019
3020     tcg_temp_free_i64(tcg_result);
3021 }
3022
3023 /*
3024  * C3.5.2 Add/subtract (shifted register)
3025  *
3026  *  31 30 29 28       24 23 22 21 20   16 15     10 9    5 4    0
3027  * +--+--+--+-----------+-----+--+-------+---------+------+------+
3028  * |sf|op| S| 0 1 0 1 1 |shift| 0|  Rm   |  imm6   |  Rn  |  Rd  |
3029  * +--+--+--+-----------+-----+--+-------+---------+------+------+
3030  *
3031  *    sf: 0 -> 32bit, 1 -> 64bit
3032  *    op: 0 -> add  , 1 -> sub
3033  *     S: 1 -> set flags
3034  * shift: 00 -> LSL, 01 -> LSR, 10 -> ASR, 11 -> RESERVED
3035  *  imm6: Shift amount to apply to Rm before the add/sub
3036  */
3037 static void disas_add_sub_reg(DisasContext *s, uint32_t insn)
3038 {
3039     int rd = extract32(insn, 0, 5);
3040     int rn = extract32(insn, 5, 5);
3041     int imm6 = extract32(insn, 10, 6);
3042     int rm = extract32(insn, 16, 5);
3043     int shift_type = extract32(insn, 22, 2);
3044     bool setflags = extract32(insn, 29, 1);
3045     bool sub_op = extract32(insn, 30, 1);
3046     bool sf = extract32(insn, 31, 1);
3047
3048     TCGv_i64 tcg_rd = cpu_reg(s, rd);
3049     TCGv_i64 tcg_rn, tcg_rm;
3050     TCGv_i64 tcg_result;
3051
3052     if ((shift_type == 3) || (!sf && (imm6 > 31))) {
3053         unallocated_encoding(s);
3054         return;
3055     }
3056
3057     tcg_rn = read_cpu_reg(s, rn, sf);
3058     tcg_rm = read_cpu_reg(s, rm, sf);
3059
3060     shift_reg_imm(tcg_rm, tcg_rm, sf, shift_type, imm6);
3061
3062     tcg_result = tcg_temp_new_i64();
3063
3064     if (!setflags) {
3065         if (sub_op) {
3066             tcg_gen_sub_i64(tcg_result, tcg_rn, tcg_rm);
3067         } else {
3068             tcg_gen_add_i64(tcg_result, tcg_rn, tcg_rm);
3069         }
3070     } else {
3071         if (sub_op) {
3072             gen_sub_CC(sf, tcg_result, tcg_rn, tcg_rm);
3073         } else {
3074             gen_add_CC(sf, tcg_result, tcg_rn, tcg_rm);
3075         }
3076     }
3077
3078     if (sf) {
3079         tcg_gen_mov_i64(tcg_rd, tcg_result);
3080     } else {
3081         tcg_gen_ext32u_i64(tcg_rd, tcg_result);
3082     }
3083
3084     tcg_temp_free_i64(tcg_result);
3085 }
3086
3087 /* C3.5.9 Data-processing (3 source)
3088
3089    31 30  29 28       24 23 21  20  16  15  14  10 9    5 4    0
3090   +--+------+-----------+------+------+----+------+------+------+
3091   |sf| op54 | 1 1 0 1 1 | op31 |  Rm  | o0 |  Ra  |  Rn  |  Rd  |
3092   +--+------+-----------+------+------+----+------+------+------+
3093
3094  */
3095 static void disas_data_proc_3src(DisasContext *s, uint32_t insn)
3096 {
3097     int rd = extract32(insn, 0, 5);
3098     int rn = extract32(insn, 5, 5);
3099     int ra = extract32(insn, 10, 5);
3100     int rm = extract32(insn, 16, 5);
3101     int op_id = (extract32(insn, 29, 3) << 4) |
3102         (extract32(insn, 21, 3) << 1) |
3103         extract32(insn, 15, 1);
3104     bool sf = extract32(insn, 31, 1);
3105     bool is_sub = extract32(op_id, 0, 1);
3106     bool is_high = extract32(op_id, 2, 1);
3107     bool is_signed = false;
3108     TCGv_i64 tcg_op1;
3109     TCGv_i64 tcg_op2;
3110     TCGv_i64 tcg_tmp;
3111
3112     /* Note that op_id is sf:op54:op31:o0 so it includes the 32/64 size flag */
3113     switch (op_id) {
3114     case 0x42: /* SMADDL */
3115     case 0x43: /* SMSUBL */
3116     case 0x44: /* SMULH */
3117         is_signed = true;
3118         break;
3119     case 0x0: /* MADD (32bit) */
3120     case 0x1: /* MSUB (32bit) */
3121     case 0x40: /* MADD (64bit) */
3122     case 0x41: /* MSUB (64bit) */
3123     case 0x4a: /* UMADDL */
3124     case 0x4b: /* UMSUBL */
3125     case 0x4c: /* UMULH */
3126         break;
3127     default:
3128         unallocated_encoding(s);
3129         return;
3130     }
3131
3132     if (is_high) {
3133         TCGv_i64 low_bits = tcg_temp_new_i64(); /* low bits discarded */
3134         TCGv_i64 tcg_rd = cpu_reg(s, rd);
3135         TCGv_i64 tcg_rn = cpu_reg(s, rn);
3136         TCGv_i64 tcg_rm = cpu_reg(s, rm);
3137
3138         if (is_signed) {
3139             tcg_gen_muls2_i64(low_bits, tcg_rd, tcg_rn, tcg_rm);
3140         } else {
3141             tcg_gen_mulu2_i64(low_bits, tcg_rd, tcg_rn, tcg_rm);
3142         }
3143
3144         tcg_temp_free_i64(low_bits);
3145         return;
3146     }
3147
3148     tcg_op1 = tcg_temp_new_i64();
3149     tcg_op2 = tcg_temp_new_i64();
3150     tcg_tmp = tcg_temp_new_i64();
3151
3152     if (op_id < 0x42) {
3153         tcg_gen_mov_i64(tcg_op1, cpu_reg(s, rn));
3154         tcg_gen_mov_i64(tcg_op2, cpu_reg(s, rm));
3155     } else {
3156         if (is_signed) {
3157             tcg_gen_ext32s_i64(tcg_op1, cpu_reg(s, rn));
3158             tcg_gen_ext32s_i64(tcg_op2, cpu_reg(s, rm));
3159         } else {
3160             tcg_gen_ext32u_i64(tcg_op1, cpu_reg(s, rn));
3161             tcg_gen_ext32u_i64(tcg_op2, cpu_reg(s, rm));
3162         }
3163     }
3164
3165     if (ra == 31 && !is_sub) {
3166         /* Special-case MADD with rA == XZR; it is the standard MUL alias */
3167         tcg_gen_mul_i64(cpu_reg(s, rd), tcg_op1, tcg_op2);
3168     } else {
3169         tcg_gen_mul_i64(tcg_tmp, tcg_op1, tcg_op2);
3170         if (is_sub) {
3171             tcg_gen_sub_i64(cpu_reg(s, rd), cpu_reg(s, ra), tcg_tmp);
3172         } else {
3173             tcg_gen_add_i64(cpu_reg(s, rd), cpu_reg(s, ra), tcg_tmp);
3174         }
3175     }
3176
3177     if (!sf) {
3178         tcg_gen_ext32u_i64(cpu_reg(s, rd), cpu_reg(s, rd));
3179     }
3180
3181     tcg_temp_free_i64(tcg_op1);
3182     tcg_temp_free_i64(tcg_op2);
3183     tcg_temp_free_i64(tcg_tmp);
3184 }
3185
3186 /* C3.5.3 - Add/subtract (with carry)
3187  *  31 30 29 28 27 26 25 24 23 22 21  20  16  15   10  9    5 4   0
3188  * +--+--+--+------------------------+------+---------+------+-----+
3189  * |sf|op| S| 1  1  0  1  0  0  0  0 |  rm  | opcode2 |  Rn  |  Rd |
3190  * +--+--+--+------------------------+------+---------+------+-----+
3191  *                                            [000000]
3192  */
3193
3194 static void disas_adc_sbc(DisasContext *s, uint32_t insn)
3195 {
3196     unsigned int sf, op, setflags, rm, rn, rd;
3197     TCGv_i64 tcg_y, tcg_rn, tcg_rd;
3198
3199     if (extract32(insn, 10, 6) != 0) {
3200         unallocated_encoding(s);
3201         return;
3202     }
3203
3204     sf = extract32(insn, 31, 1);
3205     op = extract32(insn, 30, 1);
3206     setflags = extract32(insn, 29, 1);
3207     rm = extract32(insn, 16, 5);
3208     rn = extract32(insn, 5, 5);
3209     rd = extract32(insn, 0, 5);
3210
3211     tcg_rd = cpu_reg(s, rd);
3212     tcg_rn = cpu_reg(s, rn);
3213
3214     if (op) {
3215         tcg_y = new_tmp_a64(s);
3216         tcg_gen_not_i64(tcg_y, cpu_reg(s, rm));
3217     } else {
3218         tcg_y = cpu_reg(s, rm);
3219     }
3220
3221     if (setflags) {
3222         gen_adc_CC(sf, tcg_rd, tcg_rn, tcg_y);
3223     } else {
3224         gen_adc(sf, tcg_rd, tcg_rn, tcg_y);
3225     }
3226 }
3227
3228 /* C3.5.4 - C3.5.5 Conditional compare (immediate / register)
3229  *  31 30 29 28 27 26 25 24 23 22 21  20    16 15  12  11  10  9   5  4 3   0
3230  * +--+--+--+------------------------+--------+------+----+--+------+--+-----+
3231  * |sf|op| S| 1  1  0  1  0  0  1  0 |imm5/rm | cond |i/r |o2|  Rn  |o3|nzcv |
3232  * +--+--+--+------------------------+--------+------+----+--+------+--+-----+
3233  *        [1]                             y                [0]       [0]
3234  */
3235 static void disas_cc(DisasContext *s, uint32_t insn)
3236 {
3237     unsigned int sf, op, y, cond, rn, nzcv, is_imm;
3238     int label_continue = -1;
3239     TCGv_i64 tcg_tmp, tcg_y, tcg_rn;
3240
3241     if (!extract32(insn, 29, 1)) {
3242         unallocated_encoding(s);
3243         return;
3244     }
3245     if (insn & (1 << 10 | 1 << 4)) {
3246         unallocated_encoding(s);
3247         return;
3248     }
3249     sf = extract32(insn, 31, 1);
3250     op = extract32(insn, 30, 1);
3251     is_imm = extract32(insn, 11, 1);
3252     y = extract32(insn, 16, 5); /* y = rm (reg) or imm5 (imm) */
3253     cond = extract32(insn, 12, 4);
3254     rn = extract32(insn, 5, 5);
3255     nzcv = extract32(insn, 0, 4);
3256
3257     if (cond < 0x0e) { /* not always */
3258         int label_match = gen_new_label();
3259         label_continue = gen_new_label();
3260         arm_gen_test_cc(cond, label_match);
3261         /* nomatch: */
3262         tcg_tmp = tcg_temp_new_i64();
3263         tcg_gen_movi_i64(tcg_tmp, nzcv << 28);
3264         gen_set_nzcv(tcg_tmp);
3265         tcg_temp_free_i64(tcg_tmp);
3266         tcg_gen_br(label_continue);
3267         gen_set_label(label_match);
3268     }
3269     /* match, or condition is always */
3270     if (is_imm) {
3271         tcg_y = new_tmp_a64(s);
3272         tcg_gen_movi_i64(tcg_y, y);
3273     } else {
3274         tcg_y = cpu_reg(s, y);
3275     }
3276     tcg_rn = cpu_reg(s, rn);
3277
3278     tcg_tmp = tcg_temp_new_i64();
3279     if (op) {
3280         gen_sub_CC(sf, tcg_tmp, tcg_rn, tcg_y);
3281     } else {
3282         gen_add_CC(sf, tcg_tmp, tcg_rn, tcg_y);
3283     }
3284     tcg_temp_free_i64(tcg_tmp);
3285
3286     if (cond < 0x0e) { /* continue */
3287         gen_set_label(label_continue);
3288     }
3289 }
3290
3291 /* C3.5.6 Conditional select
3292  *   31   30  29  28             21 20  16 15  12 11 10 9    5 4    0
3293  * +----+----+---+-----------------+------+------+-----+------+------+
3294  * | sf | op | S | 1 1 0 1 0 1 0 0 |  Rm  | cond | op2 |  Rn  |  Rd  |
3295  * +----+----+---+-----------------+------+------+-----+------+------+
3296  */
3297 static void disas_cond_select(DisasContext *s, uint32_t insn)
3298 {
3299     unsigned int sf, else_inv, rm, cond, else_inc, rn, rd;
3300     TCGv_i64 tcg_rd, tcg_src;
3301
3302     if (extract32(insn, 29, 1) || extract32(insn, 11, 1)) {
3303         /* S == 1 or op2<1> == 1 */
3304         unallocated_encoding(s);
3305         return;
3306     }
3307     sf = extract32(insn, 31, 1);
3308     else_inv = extract32(insn, 30, 1);
3309     rm = extract32(insn, 16, 5);
3310     cond = extract32(insn, 12, 4);
3311     else_inc = extract32(insn, 10, 1);
3312     rn = extract32(insn, 5, 5);
3313     rd = extract32(insn, 0, 5);
3314
3315     if (rd == 31) {
3316         /* silly no-op write; until we use movcond we must special-case
3317          * this to avoid a dead temporary across basic blocks.
3318          */
3319         return;
3320     }
3321
3322     tcg_rd = cpu_reg(s, rd);
3323
3324     if (cond >= 0x0e) { /* condition "always" */
3325         tcg_src = read_cpu_reg(s, rn, sf);
3326         tcg_gen_mov_i64(tcg_rd, tcg_src);
3327     } else {
3328         /* OPTME: we could use movcond here, at the cost of duplicating
3329          * a lot of the arm_gen_test_cc() logic.
3330          */
3331         int label_match = gen_new_label();
3332         int label_continue = gen_new_label();
3333
3334         arm_gen_test_cc(cond, label_match);
3335         /* nomatch: */
3336         tcg_src = cpu_reg(s, rm);
3337
3338         if (else_inv && else_inc) {
3339             tcg_gen_neg_i64(tcg_rd, tcg_src);
3340         } else if (else_inv) {
3341             tcg_gen_not_i64(tcg_rd, tcg_src);
3342         } else if (else_inc) {
3343             tcg_gen_addi_i64(tcg_rd, tcg_src, 1);
3344         } else {
3345             tcg_gen_mov_i64(tcg_rd, tcg_src);
3346         }
3347         if (!sf) {
3348             tcg_gen_ext32u_i64(tcg_rd, tcg_rd);
3349         }
3350         tcg_gen_br(label_continue);
3351         /* match: */
3352         gen_set_label(label_match);
3353         tcg_src = read_cpu_reg(s, rn, sf);
3354         tcg_gen_mov_i64(tcg_rd, tcg_src);
3355         /* continue: */
3356         gen_set_label(label_continue);
3357     }
3358 }
3359
3360 static void handle_clz(DisasContext *s, unsigned int sf,
3361                        unsigned int rn, unsigned int rd)
3362 {
3363     TCGv_i64 tcg_rd, tcg_rn;
3364     tcg_rd = cpu_reg(s, rd);
3365     tcg_rn = cpu_reg(s, rn);
3366
3367     if (sf) {
3368         gen_helper_clz64(tcg_rd, tcg_rn);
3369     } else {
3370         TCGv_i32 tcg_tmp32 = tcg_temp_new_i32();
3371         tcg_gen_trunc_i64_i32(tcg_tmp32, tcg_rn);
3372         gen_helper_clz(tcg_tmp32, tcg_tmp32);
3373         tcg_gen_extu_i32_i64(tcg_rd, tcg_tmp32);
3374         tcg_temp_free_i32(tcg_tmp32);
3375     }
3376 }
3377
3378 static void handle_cls(DisasContext *s, unsigned int sf,
3379                        unsigned int rn, unsigned int rd)
3380 {
3381     TCGv_i64 tcg_rd, tcg_rn;
3382     tcg_rd = cpu_reg(s, rd);
3383     tcg_rn = cpu_reg(s, rn);
3384
3385     if (sf) {
3386         gen_helper_cls64(tcg_rd, tcg_rn);
3387     } else {
3388         TCGv_i32 tcg_tmp32 = tcg_temp_new_i32();
3389         tcg_gen_trunc_i64_i32(tcg_tmp32, tcg_rn);
3390         gen_helper_cls32(tcg_tmp32, tcg_tmp32);
3391         tcg_gen_extu_i32_i64(tcg_rd, tcg_tmp32);
3392         tcg_temp_free_i32(tcg_tmp32);
3393     }
3394 }
3395
3396 static void handle_rbit(DisasContext *s, unsigned int sf,
3397                         unsigned int rn, unsigned int rd)
3398 {
3399     TCGv_i64 tcg_rd, tcg_rn;
3400     tcg_rd = cpu_reg(s, rd);
3401     tcg_rn = cpu_reg(s, rn);
3402
3403     if (sf) {
3404         gen_helper_rbit64(tcg_rd, tcg_rn);
3405     } else {
3406         TCGv_i32 tcg_tmp32 = tcg_temp_new_i32();
3407         tcg_gen_trunc_i64_i32(tcg_tmp32, tcg_rn);
3408         gen_helper_rbit(tcg_tmp32, tcg_tmp32);
3409         tcg_gen_extu_i32_i64(tcg_rd, tcg_tmp32);
3410         tcg_temp_free_i32(tcg_tmp32);
3411     }
3412 }
3413
3414 /* C5.6.149 REV with sf==1, opcode==3 ("REV64") */
3415 static void handle_rev64(DisasContext *s, unsigned int sf,
3416                          unsigned int rn, unsigned int rd)
3417 {
3418     if (!sf) {
3419         unallocated_encoding(s);
3420         return;
3421     }
3422     tcg_gen_bswap64_i64(cpu_reg(s, rd), cpu_reg(s, rn));
3423 }
3424
3425 /* C5.6.149 REV with sf==0, opcode==2
3426  * C5.6.151 REV32 (sf==1, opcode==2)
3427  */
3428 static void handle_rev32(DisasContext *s, unsigned int sf,
3429                          unsigned int rn, unsigned int rd)
3430 {
3431     TCGv_i64 tcg_rd = cpu_reg(s, rd);
3432
3433     if (sf) {
3434         TCGv_i64 tcg_tmp = tcg_temp_new_i64();
3435         TCGv_i64 tcg_rn = read_cpu_reg(s, rn, sf);
3436
3437         /* bswap32_i64 requires zero high word */
3438         tcg_gen_ext32u_i64(tcg_tmp, tcg_rn);
3439         tcg_gen_bswap32_i64(tcg_rd, tcg_tmp);
3440         tcg_gen_shri_i64(tcg_tmp, tcg_rn, 32);
3441         tcg_gen_bswap32_i64(tcg_tmp, tcg_tmp);
3442         tcg_gen_concat32_i64(tcg_rd, tcg_rd, tcg_tmp);
3443
3444         tcg_temp_free_i64(tcg_tmp);
3445     } else {
3446         tcg_gen_ext32u_i64(tcg_rd, cpu_reg(s, rn));
3447         tcg_gen_bswap32_i64(tcg_rd, tcg_rd);
3448     }
3449 }
3450
3451 /* C5.6.150 REV16 (opcode==1) */
3452 static void handle_rev16(DisasContext *s, unsigned int sf,
3453                          unsigned int rn, unsigned int rd)
3454 {
3455     TCGv_i64 tcg_rd = cpu_reg(s, rd);
3456     TCGv_i64 tcg_tmp = tcg_temp_new_i64();
3457     TCGv_i64 tcg_rn = read_cpu_reg(s, rn, sf);
3458
3459     tcg_gen_andi_i64(tcg_tmp, tcg_rn, 0xffff);
3460     tcg_gen_bswap16_i64(tcg_rd, tcg_tmp);
3461
3462     tcg_gen_shri_i64(tcg_tmp, tcg_rn, 16);
3463     tcg_gen_andi_i64(tcg_tmp, tcg_tmp, 0xffff);
3464     tcg_gen_bswap16_i64(tcg_tmp, tcg_tmp);
3465     tcg_gen_deposit_i64(tcg_rd, tcg_rd, tcg_tmp, 16, 16);
3466
3467     if (sf) {
3468         tcg_gen_shri_i64(tcg_tmp, tcg_rn, 32);
3469         tcg_gen_andi_i64(tcg_tmp, tcg_tmp, 0xffff);
3470         tcg_gen_bswap16_i64(tcg_tmp, tcg_tmp);
3471         tcg_gen_deposit_i64(tcg_rd, tcg_rd, tcg_tmp, 32, 16);
3472
3473         tcg_gen_shri_i64(tcg_tmp, tcg_rn, 48);
3474         tcg_gen_bswap16_i64(tcg_tmp, tcg_tmp);
3475         tcg_gen_deposit_i64(tcg_rd, tcg_rd, tcg_tmp, 48, 16);
3476     }
3477
3478     tcg_temp_free_i64(tcg_tmp);
3479 }
3480
3481 /* C3.5.7 Data-processing (1 source)
3482  *   31  30  29  28             21 20     16 15    10 9    5 4    0
3483  * +----+---+---+-----------------+---------+--------+------+------+
3484  * | sf | 1 | S | 1 1 0 1 0 1 1 0 | opcode2 | opcode |  Rn  |  Rd  |
3485  * +----+---+---+-----------------+---------+--------+------+------+
3486  */
3487 static void disas_data_proc_1src(DisasContext *s, uint32_t insn)
3488 {
3489     unsigned int sf, opcode, rn, rd;
3490
3491     if (extract32(insn, 29, 1) || extract32(insn, 16, 5)) {
3492         unallocated_encoding(s);
3493         return;
3494     }
3495
3496     sf = extract32(insn, 31, 1);
3497     opcode = extract32(insn, 10, 6);
3498     rn = extract32(insn, 5, 5);
3499     rd = extract32(insn, 0, 5);
3500
3501     switch (opcode) {
3502     case 0: /* RBIT */
3503         handle_rbit(s, sf, rn, rd);
3504         break;
3505     case 1: /* REV16 */
3506         handle_rev16(s, sf, rn, rd);
3507         break;
3508     case 2: /* REV32 */
3509         handle_rev32(s, sf, rn, rd);
3510         break;
3511     case 3: /* REV64 */
3512         handle_rev64(s, sf, rn, rd);
3513         break;
3514     case 4: /* CLZ */
3515         handle_clz(s, sf, rn, rd);
3516         break;
3517     case 5: /* CLS */
3518         handle_cls(s, sf, rn, rd);
3519         break;
3520     }
3521 }
3522
3523 static void handle_div(DisasContext *s, bool is_signed, unsigned int sf,
3524                        unsigned int rm, unsigned int rn, unsigned int rd)
3525 {
3526     TCGv_i64 tcg_n, tcg_m, tcg_rd;
3527     tcg_rd = cpu_reg(s, rd);
3528
3529     if (!sf && is_signed) {
3530         tcg_n = new_tmp_a64(s);
3531         tcg_m = new_tmp_a64(s);
3532         tcg_gen_ext32s_i64(tcg_n, cpu_reg(s, rn));
3533         tcg_gen_ext32s_i64(tcg_m, cpu_reg(s, rm));
3534     } else {
3535         tcg_n = read_cpu_reg(s, rn, sf);
3536         tcg_m = read_cpu_reg(s, rm, sf);
3537     }
3538
3539     if (is_signed) {
3540         gen_helper_sdiv64(tcg_rd, tcg_n, tcg_m);
3541     } else {
3542         gen_helper_udiv64(tcg_rd, tcg_n, tcg_m);
3543     }
3544
3545     if (!sf) { /* zero extend final result */
3546         tcg_gen_ext32u_i64(tcg_rd, tcg_rd);
3547     }
3548 }
3549
3550 /* C5.6.115 LSLV, C5.6.118 LSRV, C5.6.17 ASRV, C5.6.154 RORV */
3551 static void handle_shift_reg(DisasContext *s,
3552                              enum a64_shift_type shift_type, unsigned int sf,
3553                              unsigned int rm, unsigned int rn, unsigned int rd)
3554 {
3555     TCGv_i64 tcg_shift = tcg_temp_new_i64();
3556     TCGv_i64 tcg_rd = cpu_reg(s, rd);
3557     TCGv_i64 tcg_rn = read_cpu_reg(s, rn, sf);
3558
3559     tcg_gen_andi_i64(tcg_shift, cpu_reg(s, rm), sf ? 63 : 31);
3560     shift_reg(tcg_rd, tcg_rn, sf, shift_type, tcg_shift);
3561     tcg_temp_free_i64(tcg_shift);
3562 }
3563
3564 /* C3.5.8 Data-processing (2 source)
3565  *   31   30  29 28             21 20  16 15    10 9    5 4    0
3566  * +----+---+---+-----------------+------+--------+------+------+
3567  * | sf | 0 | S | 1 1 0 1 0 1 1 0 |  Rm  | opcode |  Rn  |  Rd  |
3568  * +----+---+---+-----------------+------+--------+------+------+
3569  */
3570 static void disas_data_proc_2src(DisasContext *s, uint32_t insn)
3571 {
3572     unsigned int sf, rm, opcode, rn, rd;
3573     sf = extract32(insn, 31, 1);
3574     rm = extract32(insn, 16, 5);
3575     opcode = extract32(insn, 10, 6);
3576     rn = extract32(insn, 5, 5);
3577     rd = extract32(insn, 0, 5);
3578
3579     if (extract32(insn, 29, 1)) {
3580         unallocated_encoding(s);
3581         return;
3582     }
3583
3584     switch (opcode) {
3585     case 2: /* UDIV */
3586         handle_div(s, false, sf, rm, rn, rd);
3587         break;
3588     case 3: /* SDIV */
3589         handle_div(s, true, sf, rm, rn, rd);
3590         break;
3591     case 8: /* LSLV */
3592         handle_shift_reg(s, A64_SHIFT_TYPE_LSL, sf, rm, rn, rd);
3593         break;
3594     case 9: /* LSRV */
3595         handle_shift_reg(s, A64_SHIFT_TYPE_LSR, sf, rm, rn, rd);
3596         break;
3597     case 10: /* ASRV */
3598         handle_shift_reg(s, A64_SHIFT_TYPE_ASR, sf, rm, rn, rd);
3599         break;
3600     case 11: /* RORV */
3601         handle_shift_reg(s, A64_SHIFT_TYPE_ROR, sf, rm, rn, rd);
3602         break;
3603     case 16:
3604     case 17:
3605     case 18:
3606     case 19:
3607     case 20:
3608     case 21:
3609     case 22:
3610     case 23: /* CRC32 */
3611         unsupported_encoding(s, insn);
3612         break;
3613     default:
3614         unallocated_encoding(s);
3615         break;
3616     }
3617 }
3618
3619 /* C3.5 Data processing - register */
3620 static void disas_data_proc_reg(DisasContext *s, uint32_t insn)
3621 {
3622     switch (extract32(insn, 24, 5)) {
3623     case 0x0a: /* Logical (shifted register) */
3624         disas_logic_reg(s, insn);
3625         break;
3626     case 0x0b: /* Add/subtract */
3627         if (insn & (1 << 21)) { /* (extended register) */
3628             disas_add_sub_ext_reg(s, insn);
3629         } else {
3630             disas_add_sub_reg(s, insn);
3631         }
3632         break;
3633     case 0x1b: /* Data-processing (3 source) */
3634         disas_data_proc_3src(s, insn);
3635         break;
3636     case 0x1a:
3637         switch (extract32(insn, 21, 3)) {
3638         case 0x0: /* Add/subtract (with carry) */
3639             disas_adc_sbc(s, insn);
3640             break;
3641         case 0x2: /* Conditional compare */
3642             disas_cc(s, insn); /* both imm and reg forms */
3643             break;
3644         case 0x4: /* Conditional select */
3645             disas_cond_select(s, insn);
3646             break;
3647         case 0x6: /* Data-processing */
3648             if (insn & (1 << 30)) { /* (1 source) */
3649                 disas_data_proc_1src(s, insn);
3650             } else {            /* (2 source) */
3651                 disas_data_proc_2src(s, insn);
3652             }
3653             break;
3654         default:
3655             unallocated_encoding(s);
3656             break;
3657         }
3658         break;
3659     default:
3660         unallocated_encoding(s);
3661         break;
3662     }
3663 }
3664
3665 static void handle_fp_compare(DisasContext *s, bool is_double,
3666                               unsigned int rn, unsigned int rm,
3667                               bool cmp_with_zero, bool signal_all_nans)
3668 {
3669     TCGv_i64 tcg_flags = tcg_temp_new_i64();
3670     TCGv_ptr fpst = get_fpstatus_ptr();
3671
3672     if (is_double) {
3673         TCGv_i64 tcg_vn, tcg_vm;
3674
3675         tcg_vn = read_fp_dreg(s, rn);
3676         if (cmp_with_zero) {
3677             tcg_vm = tcg_const_i64(0);
3678         } else {
3679             tcg_vm = read_fp_dreg(s, rm);
3680         }
3681         if (signal_all_nans) {
3682             gen_helper_vfp_cmped_a64(tcg_flags, tcg_vn, tcg_vm, fpst);
3683         } else {
3684             gen_helper_vfp_cmpd_a64(tcg_flags, tcg_vn, tcg_vm, fpst);
3685         }
3686         tcg_temp_free_i64(tcg_vn);
3687         tcg_temp_free_i64(tcg_vm);
3688     } else {
3689         TCGv_i32 tcg_vn, tcg_vm;
3690
3691         tcg_vn = read_fp_sreg(s, rn);
3692         if (cmp_with_zero) {
3693             tcg_vm = tcg_const_i32(0);
3694         } else {
3695             tcg_vm = read_fp_sreg(s, rm);
3696         }
3697         if (signal_all_nans) {
3698             gen_helper_vfp_cmpes_a64(tcg_flags, tcg_vn, tcg_vm, fpst);
3699         } else {
3700             gen_helper_vfp_cmps_a64(tcg_flags, tcg_vn, tcg_vm, fpst);
3701         }
3702         tcg_temp_free_i32(tcg_vn);
3703         tcg_temp_free_i32(tcg_vm);
3704     }
3705
3706     tcg_temp_free_ptr(fpst);
3707
3708     gen_set_nzcv(tcg_flags);
3709
3710     tcg_temp_free_i64(tcg_flags);
3711 }
3712
3713 /* C3.6.22 Floating point compare
3714  *   31  30  29 28       24 23  22  21 20  16 15 14 13  10    9    5 4     0
3715  * +---+---+---+-----------+------+---+------+-----+---------+------+-------+
3716  * | M | 0 | S | 1 1 1 1 0 | type | 1 |  Rm  | op  | 1 0 0 0 |  Rn  |  op2  |
3717  * +---+---+---+-----------+------+---+------+-----+---------+------+-------+
3718  */
3719 static void disas_fp_compare(DisasContext *s, uint32_t insn)
3720 {
3721     unsigned int mos, type, rm, op, rn, opc, op2r;
3722
3723     mos = extract32(insn, 29, 3);
3724     type = extract32(insn, 22, 2); /* 0 = single, 1 = double */
3725     rm = extract32(insn, 16, 5);
3726     op = extract32(insn, 14, 2);
3727     rn = extract32(insn, 5, 5);
3728     opc = extract32(insn, 3, 2);
3729     op2r = extract32(insn, 0, 3);
3730
3731     if (mos || op || op2r || type > 1) {
3732         unallocated_encoding(s);
3733         return;
3734     }
3735
3736     handle_fp_compare(s, type, rn, rm, opc & 1, opc & 2);
3737 }
3738
3739 /* C3.6.23 Floating point conditional compare
3740  *   31  30  29 28       24 23  22  21 20  16 15  12 11 10 9    5  4   3    0
3741  * +---+---+---+-----------+------+---+------+------+-----+------+----+------+
3742  * | M | 0 | S | 1 1 1 1 0 | type | 1 |  Rm  | cond | 0 1 |  Rn  | op | nzcv |
3743  * +---+---+---+-----------+------+---+------+------+-----+------+----+------+
3744  */
3745 static void disas_fp_ccomp(DisasContext *s, uint32_t insn)
3746 {
3747     unsigned int mos, type, rm, cond, rn, op, nzcv;
3748     TCGv_i64 tcg_flags;
3749     int label_continue = -1;
3750
3751     mos = extract32(insn, 29, 3);
3752     type = extract32(insn, 22, 2); /* 0 = single, 1 = double */
3753     rm = extract32(insn, 16, 5);
3754     cond = extract32(insn, 12, 4);
3755     rn = extract32(insn, 5, 5);
3756     op = extract32(insn, 4, 1);
3757     nzcv = extract32(insn, 0, 4);
3758
3759     if (mos || type > 1) {
3760         unallocated_encoding(s);
3761         return;
3762     }
3763
3764     if (cond < 0x0e) { /* not always */
3765         int label_match = gen_new_label();
3766         label_continue = gen_new_label();
3767         arm_gen_test_cc(cond, label_match);
3768         /* nomatch: */
3769         tcg_flags = tcg_const_i64(nzcv << 28);
3770         gen_set_nzcv(tcg_flags);
3771         tcg_temp_free_i64(tcg_flags);
3772         tcg_gen_br(label_continue);
3773         gen_set_label(label_match);
3774     }
3775
3776     handle_fp_compare(s, type, rn, rm, false, op);
3777
3778     if (cond < 0x0e) {
3779         gen_set_label(label_continue);
3780     }
3781 }
3782
3783 /* copy src FP register to dst FP register; type specifies single or double */
3784 static void gen_mov_fp2fp(DisasContext *s, int type, int dst, int src)
3785 {
3786     if (type) {
3787         TCGv_i64 v = read_fp_dreg(s, src);
3788         write_fp_dreg(s, dst, v);
3789         tcg_temp_free_i64(v);
3790     } else {
3791         TCGv_i32 v = read_fp_sreg(s, src);
3792         write_fp_sreg(s, dst, v);
3793         tcg_temp_free_i32(v);
3794     }
3795 }
3796
3797 /* C3.6.24 Floating point conditional select
3798  *   31  30  29 28       24 23  22  21 20  16 15  12 11 10 9    5 4    0
3799  * +---+---+---+-----------+------+---+------+------+-----+------+------+
3800  * | M | 0 | S | 1 1 1 1 0 | type | 1 |  Rm  | cond | 1 1 |  Rn  |  Rd  |
3801  * +---+---+---+-----------+------+---+------+------+-----+------+------+
3802  */
3803 static void disas_fp_csel(DisasContext *s, uint32_t insn)
3804 {
3805     unsigned int mos, type, rm, cond, rn, rd;
3806     int label_continue = -1;
3807
3808     mos = extract32(insn, 29, 3);
3809     type = extract32(insn, 22, 2); /* 0 = single, 1 = double */
3810     rm = extract32(insn, 16, 5);
3811     cond = extract32(insn, 12, 4);
3812     rn = extract32(insn, 5, 5);
3813     rd = extract32(insn, 0, 5);
3814
3815     if (mos || type > 1) {
3816         unallocated_encoding(s);
3817         return;
3818     }
3819
3820     if (cond < 0x0e) { /* not always */
3821         int label_match = gen_new_label();
3822         label_continue = gen_new_label();
3823         arm_gen_test_cc(cond, label_match);
3824         /* nomatch: */
3825         gen_mov_fp2fp(s, type, rd, rm);
3826         tcg_gen_br(label_continue);
3827         gen_set_label(label_match);
3828     }
3829
3830     gen_mov_fp2fp(s, type, rd, rn);
3831
3832     if (cond < 0x0e) { /* continue */
3833         gen_set_label(label_continue);
3834     }
3835 }
3836
3837 /* C3.6.25 Floating-point data-processing (1 source) - single precision */
3838 static void handle_fp_1src_single(DisasContext *s, int opcode, int rd, int rn)
3839 {
3840     TCGv_ptr fpst;
3841     TCGv_i32 tcg_op;
3842     TCGv_i32 tcg_res;
3843
3844     fpst = get_fpstatus_ptr();
3845     tcg_op = read_fp_sreg(s, rn);
3846     tcg_res = tcg_temp_new_i32();
3847
3848     switch (opcode) {
3849     case 0x0: /* FMOV */
3850         tcg_gen_mov_i32(tcg_res, tcg_op);
3851         break;
3852     case 0x1: /* FABS */
3853         gen_helper_vfp_abss(tcg_res, tcg_op);
3854         break;
3855     case 0x2: /* FNEG */
3856         gen_helper_vfp_negs(tcg_res, tcg_op);
3857         break;
3858     case 0x3: /* FSQRT */
3859         gen_helper_vfp_sqrts(tcg_res, tcg_op, cpu_env);
3860         break;
3861     case 0x8: /* FRINTN */
3862     case 0x9: /* FRINTP */
3863     case 0xa: /* FRINTM */
3864     case 0xb: /* FRINTZ */
3865     case 0xc: /* FRINTA */
3866     {
3867         TCGv_i32 tcg_rmode = tcg_const_i32(arm_rmode_to_sf(opcode & 7));
3868
3869         gen_helper_set_rmode(tcg_rmode, tcg_rmode, cpu_env);
3870         gen_helper_rints(tcg_res, tcg_op, fpst);
3871
3872         gen_helper_set_rmode(tcg_rmode, tcg_rmode, cpu_env);
3873         tcg_temp_free_i32(tcg_rmode);
3874         break;
3875     }
3876     case 0xe: /* FRINTX */
3877         gen_helper_rints_exact(tcg_res, tcg_op, fpst);
3878         break;
3879     case 0xf: /* FRINTI */
3880         gen_helper_rints(tcg_res, tcg_op, fpst);
3881         break;
3882     default:
3883         abort();
3884     }
3885
3886     write_fp_sreg(s, rd, tcg_res);
3887
3888     tcg_temp_free_ptr(fpst);
3889     tcg_temp_free_i32(tcg_op);
3890     tcg_temp_free_i32(tcg_res);
3891 }
3892
3893 /* C3.6.25 Floating-point data-processing (1 source) - double precision */
3894 static void handle_fp_1src_double(DisasContext *s, int opcode, int rd, int rn)
3895 {
3896     TCGv_ptr fpst;
3897     TCGv_i64 tcg_op;
3898     TCGv_i64 tcg_res;
3899
3900     fpst = get_fpstatus_ptr();
3901     tcg_op = read_fp_dreg(s, rn);
3902     tcg_res = tcg_temp_new_i64();
3903
3904     switch (opcode) {
3905     case 0x0: /* FMOV */
3906         tcg_gen_mov_i64(tcg_res, tcg_op);
3907         break;
3908     case 0x1: /* FABS */
3909         gen_helper_vfp_absd(tcg_res, tcg_op);
3910         break;
3911     case 0x2: /* FNEG */
3912         gen_helper_vfp_negd(tcg_res, tcg_op);
3913         break;
3914     case 0x3: /* FSQRT */
3915         gen_helper_vfp_sqrtd(tcg_res, tcg_op, cpu_env);
3916         break;
3917     case 0x8: /* FRINTN */
3918     case 0x9: /* FRINTP */
3919     case 0xa: /* FRINTM */
3920     case 0xb: /* FRINTZ */
3921     case 0xc: /* FRINTA */
3922     {
3923         TCGv_i32 tcg_rmode = tcg_const_i32(arm_rmode_to_sf(opcode & 7));
3924
3925         gen_helper_set_rmode(tcg_rmode, tcg_rmode, cpu_env);
3926         gen_helper_rintd(tcg_res, tcg_op, fpst);
3927
3928         gen_helper_set_rmode(tcg_rmode, tcg_rmode, cpu_env);
3929         tcg_temp_free_i32(tcg_rmode);
3930         break;
3931     }
3932     case 0xe: /* FRINTX */
3933         gen_helper_rintd_exact(tcg_res, tcg_op, fpst);
3934         break;
3935     case 0xf: /* FRINTI */
3936         gen_helper_rintd(tcg_res, tcg_op, fpst);
3937         break;
3938     default:
3939         abort();
3940     }
3941
3942     write_fp_dreg(s, rd, tcg_res);
3943
3944     tcg_temp_free_ptr(fpst);
3945     tcg_temp_free_i64(tcg_op);
3946     tcg_temp_free_i64(tcg_res);
3947 }
3948
3949 static void handle_fp_fcvt(DisasContext *s, int opcode,
3950                            int rd, int rn, int dtype, int ntype)
3951 {
3952     switch (ntype) {
3953     case 0x0:
3954     {
3955         TCGv_i32 tcg_rn = read_fp_sreg(s, rn);
3956         if (dtype == 1) {
3957             /* Single to double */
3958             TCGv_i64 tcg_rd = tcg_temp_new_i64();
3959             gen_helper_vfp_fcvtds(tcg_rd, tcg_rn, cpu_env);
3960             write_fp_dreg(s, rd, tcg_rd);
3961             tcg_temp_free_i64(tcg_rd);
3962         } else {
3963             /* Single to half */
3964             TCGv_i32 tcg_rd = tcg_temp_new_i32();
3965             gen_helper_vfp_fcvt_f32_to_f16(tcg_rd, tcg_rn, cpu_env);
3966             /* write_fp_sreg is OK here because top half of tcg_rd is zero */
3967             write_fp_sreg(s, rd, tcg_rd);
3968             tcg_temp_free_i32(tcg_rd);
3969         }
3970         tcg_temp_free_i32(tcg_rn);
3971         break;
3972     }
3973     case 0x1:
3974     {
3975         TCGv_i64 tcg_rn = read_fp_dreg(s, rn);
3976         TCGv_i32 tcg_rd = tcg_temp_new_i32();
3977         if (dtype == 0) {
3978             /* Double to single */
3979             gen_helper_vfp_fcvtsd(tcg_rd, tcg_rn, cpu_env);
3980         } else {
3981             /* Double to half */
3982             gen_helper_vfp_fcvt_f64_to_f16(tcg_rd, tcg_rn, cpu_env);
3983             /* write_fp_sreg is OK here because top half of tcg_rd is zero */
3984         }
3985         write_fp_sreg(s, rd, tcg_rd);
3986         tcg_temp_free_i32(tcg_rd);
3987         tcg_temp_free_i64(tcg_rn);
3988         break;
3989     }
3990     case 0x3:
3991     {
3992         TCGv_i32 tcg_rn = read_fp_sreg(s, rn);
3993         tcg_gen_ext16u_i32(tcg_rn, tcg_rn);
3994         if (dtype == 0) {
3995             /* Half to single */
3996             TCGv_i32 tcg_rd = tcg_temp_new_i32();
3997             gen_helper_vfp_fcvt_f16_to_f32(tcg_rd, tcg_rn, cpu_env);
3998             write_fp_sreg(s, rd, tcg_rd);
3999             tcg_temp_free_i32(tcg_rd);
4000         } else {
4001             /* Half to double */
4002             TCGv_i64 tcg_rd = tcg_temp_new_i64();
4003             gen_helper_vfp_fcvt_f16_to_f64(tcg_rd, tcg_rn, cpu_env);
4004             write_fp_dreg(s, rd, tcg_rd);
4005             tcg_temp_free_i64(tcg_rd);
4006         }
4007         tcg_temp_free_i32(tcg_rn);
4008         break;
4009     }
4010     default:
4011         abort();
4012     }
4013 }
4014
4015 /* C3.6.25 Floating point data-processing (1 source)
4016  *   31  30  29 28       24 23  22  21 20    15 14       10 9    5 4    0
4017  * +---+---+---+-----------+------+---+--------+-----------+------+------+
4018  * | M | 0 | S | 1 1 1 1 0 | type | 1 | opcode | 1 0 0 0 0 |  Rn  |  Rd  |
4019  * +---+---+---+-----------+------+---+--------+-----------+------+------+
4020  */
4021 static void disas_fp_1src(DisasContext *s, uint32_t insn)
4022 {
4023     int type = extract32(insn, 22, 2);
4024     int opcode = extract32(insn, 15, 6);
4025     int rn = extract32(insn, 5, 5);
4026     int rd = extract32(insn, 0, 5);
4027
4028     switch (opcode) {
4029     case 0x4: case 0x5: case 0x7:
4030     {
4031         /* FCVT between half, single and double precision */
4032         int dtype = extract32(opcode, 0, 2);
4033         if (type == 2 || dtype == type) {
4034             unallocated_encoding(s);
4035             return;
4036         }
4037         handle_fp_fcvt(s, opcode, rd, rn, dtype, type);
4038         break;
4039     }
4040     case 0x0 ... 0x3:
4041     case 0x8 ... 0xc:
4042     case 0xe ... 0xf:
4043         /* 32-to-32 and 64-to-64 ops */
4044         switch (type) {
4045         case 0:
4046             handle_fp_1src_single(s, opcode, rd, rn);
4047             break;
4048         case 1:
4049             handle_fp_1src_double(s, opcode, rd, rn);
4050             break;
4051         default:
4052             unallocated_encoding(s);
4053         }
4054         break;
4055     default:
4056         unallocated_encoding(s);
4057         break;
4058     }
4059 }
4060
4061 /* C3.6.26 Floating-point data-processing (2 source) - single precision */
4062 static void handle_fp_2src_single(DisasContext *s, int opcode,
4063                                   int rd, int rn, int rm)
4064 {
4065     TCGv_i32 tcg_op1;
4066     TCGv_i32 tcg_op2;
4067     TCGv_i32 tcg_res;
4068     TCGv_ptr fpst;
4069
4070     tcg_res = tcg_temp_new_i32();
4071     fpst = get_fpstatus_ptr();
4072     tcg_op1 = read_fp_sreg(s, rn);
4073     tcg_op2 = read_fp_sreg(s, rm);
4074
4075     switch (opcode) {
4076     case 0x0: /* FMUL */
4077         gen_helper_vfp_muls(tcg_res, tcg_op1, tcg_op2, fpst);
4078         break;
4079     case 0x1: /* FDIV */
4080         gen_helper_vfp_divs(tcg_res, tcg_op1, tcg_op2, fpst);
4081         break;
4082     case 0x2: /* FADD */
4083         gen_helper_vfp_adds(tcg_res, tcg_op1, tcg_op2, fpst);
4084         break;
4085     case 0x3: /* FSUB */
4086         gen_helper_vfp_subs(tcg_res, tcg_op1, tcg_op2, fpst);
4087         break;
4088     case 0x4: /* FMAX */
4089         gen_helper_vfp_maxs(tcg_res, tcg_op1, tcg_op2, fpst);
4090         break;
4091     case 0x5: /* FMIN */
4092         gen_helper_vfp_mins(tcg_res, tcg_op1, tcg_op2, fpst);
4093         break;
4094     case 0x6: /* FMAXNM */
4095         gen_helper_vfp_maxnums(tcg_res, tcg_op1, tcg_op2, fpst);
4096         break;
4097     case 0x7: /* FMINNM */
4098         gen_helper_vfp_minnums(tcg_res, tcg_op1, tcg_op2, fpst);
4099         break;
4100     case 0x8: /* FNMUL */
4101         gen_helper_vfp_muls(tcg_res, tcg_op1, tcg_op2, fpst);
4102         gen_helper_vfp_negs(tcg_res, tcg_res);
4103         break;
4104     }
4105
4106     write_fp_sreg(s, rd, tcg_res);
4107
4108     tcg_temp_free_ptr(fpst);
4109     tcg_temp_free_i32(tcg_op1);
4110     tcg_temp_free_i32(tcg_op2);
4111     tcg_temp_free_i32(tcg_res);
4112 }
4113
4114 /* C3.6.26 Floating-point data-processing (2 source) - double precision */
4115 static void handle_fp_2src_double(DisasContext *s, int opcode,
4116                                   int rd, int rn, int rm)
4117 {
4118     TCGv_i64 tcg_op1;
4119     TCGv_i64 tcg_op2;
4120     TCGv_i64 tcg_res;
4121     TCGv_ptr fpst;
4122
4123     tcg_res = tcg_temp_new_i64();
4124     fpst = get_fpstatus_ptr();
4125     tcg_op1 = read_fp_dreg(s, rn);
4126     tcg_op2 = read_fp_dreg(s, rm);
4127
4128     switch (opcode) {
4129     case 0x0: /* FMUL */
4130         gen_helper_vfp_muld(tcg_res, tcg_op1, tcg_op2, fpst);
4131         break;
4132     case 0x1: /* FDIV */
4133         gen_helper_vfp_divd(tcg_res, tcg_op1, tcg_op2, fpst);
4134         break;
4135     case 0x2: /* FADD */
4136         gen_helper_vfp_addd(tcg_res, tcg_op1, tcg_op2, fpst);
4137         break;
4138     case 0x3: /* FSUB */
4139         gen_helper_vfp_subd(tcg_res, tcg_op1, tcg_op2, fpst);
4140         break;
4141     case 0x4: /* FMAX */
4142         gen_helper_vfp_maxd(tcg_res, tcg_op1, tcg_op2, fpst);
4143         break;
4144     case 0x5: /* FMIN */
4145         gen_helper_vfp_mind(tcg_res, tcg_op1, tcg_op2, fpst);
4146         break;
4147     case 0x6: /* FMAXNM */
4148         gen_helper_vfp_maxnumd(tcg_res, tcg_op1, tcg_op2, fpst);
4149         break;
4150     case 0x7: /* FMINNM */
4151         gen_helper_vfp_minnumd(tcg_res, tcg_op1, tcg_op2, fpst);
4152         break;
4153     case 0x8: /* FNMUL */
4154         gen_helper_vfp_muld(tcg_res, tcg_op1, tcg_op2, fpst);
4155         gen_helper_vfp_negd(tcg_res, tcg_res);
4156         break;
4157     }
4158
4159     write_fp_dreg(s, rd, tcg_res);
4160
4161     tcg_temp_free_ptr(fpst);
4162     tcg_temp_free_i64(tcg_op1);
4163     tcg_temp_free_i64(tcg_op2);
4164     tcg_temp_free_i64(tcg_res);
4165 }
4166
4167 /* C3.6.26 Floating point data-processing (2 source)
4168  *   31  30  29 28       24 23  22  21 20  16 15    12 11 10 9    5 4    0
4169  * +---+---+---+-----------+------+---+------+--------+-----+------+------+
4170  * | M | 0 | S | 1 1 1 1 0 | type | 1 |  Rm  | opcode | 1 0 |  Rn  |  Rd  |
4171  * +---+---+---+-----------+------+---+------+--------+-----+------+------+
4172  */
4173 static void disas_fp_2src(DisasContext *s, uint32_t insn)
4174 {
4175     int type = extract32(insn, 22, 2);
4176     int rd = extract32(insn, 0, 5);
4177     int rn = extract32(insn, 5, 5);
4178     int rm = extract32(insn, 16, 5);
4179     int opcode = extract32(insn, 12, 4);
4180
4181     if (opcode > 8) {
4182         unallocated_encoding(s);
4183         return;
4184     }
4185
4186     switch (type) {
4187     case 0:
4188         handle_fp_2src_single(s, opcode, rd, rn, rm);
4189         break;
4190     case 1:
4191         handle_fp_2src_double(s, opcode, rd, rn, rm);
4192         break;
4193     default:
4194         unallocated_encoding(s);
4195     }
4196 }
4197
4198 /* C3.6.27 Floating-point data-processing (3 source) - single precision */
4199 static void handle_fp_3src_single(DisasContext *s, bool o0, bool o1,
4200                                   int rd, int rn, int rm, int ra)
4201 {
4202     TCGv_i32 tcg_op1, tcg_op2, tcg_op3;
4203     TCGv_i32 tcg_res = tcg_temp_new_i32();
4204     TCGv_ptr fpst = get_fpstatus_ptr();
4205
4206     tcg_op1 = read_fp_sreg(s, rn);
4207     tcg_op2 = read_fp_sreg(s, rm);
4208     tcg_op3 = read_fp_sreg(s, ra);
4209
4210     /* These are fused multiply-add, and must be done as one
4211      * floating point operation with no rounding between the
4212      * multiplication and addition steps.
4213      * NB that doing the negations here as separate steps is
4214      * correct : an input NaN should come out with its sign bit
4215      * flipped if it is a negated-input.
4216      */
4217     if (o1 == true) {
4218         gen_helper_vfp_negs(tcg_op3, tcg_op3);
4219     }
4220
4221     if (o0 != o1) {
4222         gen_helper_vfp_negs(tcg_op1, tcg_op1);
4223     }
4224
4225     gen_helper_vfp_muladds(tcg_res, tcg_op1, tcg_op2, tcg_op3, fpst);
4226
4227     write_fp_sreg(s, rd, tcg_res);
4228
4229     tcg_temp_free_ptr(fpst);
4230     tcg_temp_free_i32(tcg_op1);
4231     tcg_temp_free_i32(tcg_op2);
4232     tcg_temp_free_i32(tcg_op3);
4233     tcg_temp_free_i32(tcg_res);
4234 }
4235
4236 /* C3.6.27 Floating-point data-processing (3 source) - double precision */
4237 static void handle_fp_3src_double(DisasContext *s, bool o0, bool o1,
4238                                   int rd, int rn, int rm, int ra)
4239 {
4240     TCGv_i64 tcg_op1, tcg_op2, tcg_op3;
4241     TCGv_i64 tcg_res = tcg_temp_new_i64();
4242     TCGv_ptr fpst = get_fpstatus_ptr();
4243
4244     tcg_op1 = read_fp_dreg(s, rn);
4245     tcg_op2 = read_fp_dreg(s, rm);
4246     tcg_op3 = read_fp_dreg(s, ra);
4247
4248     /* These are fused multiply-add, and must be done as one
4249      * floating point operation with no rounding between the
4250      * multiplication and addition steps.
4251      * NB that doing the negations here as separate steps is
4252      * correct : an input NaN should come out with its sign bit
4253      * flipped if it is a negated-input.
4254      */
4255     if (o1 == true) {
4256         gen_helper_vfp_negd(tcg_op3, tcg_op3);
4257     }
4258
4259     if (o0 != o1) {
4260         gen_helper_vfp_negd(tcg_op1, tcg_op1);
4261     }
4262
4263     gen_helper_vfp_muladdd(tcg_res, tcg_op1, tcg_op2, tcg_op3, fpst);
4264
4265     write_fp_dreg(s, rd, tcg_res);
4266
4267     tcg_temp_free_ptr(fpst);
4268     tcg_temp_free_i64(tcg_op1);
4269     tcg_temp_free_i64(tcg_op2);
4270     tcg_temp_free_i64(tcg_op3);
4271     tcg_temp_free_i64(tcg_res);
4272 }
4273
4274 /* C3.6.27 Floating point data-processing (3 source)
4275  *   31  30  29 28       24 23  22  21  20  16  15  14  10 9    5 4    0
4276  * +---+---+---+-----------+------+----+------+----+------+------+------+
4277  * | M | 0 | S | 1 1 1 1 1 | type | o1 |  Rm  | o0 |  Ra  |  Rn  |  Rd  |
4278  * +---+---+---+-----------+------+----+------+----+------+------+------+
4279  */
4280 static void disas_fp_3src(DisasContext *s, uint32_t insn)
4281 {
4282     int type = extract32(insn, 22, 2);
4283     int rd = extract32(insn, 0, 5);
4284     int rn = extract32(insn, 5, 5);
4285     int ra = extract32(insn, 10, 5);
4286     int rm = extract32(insn, 16, 5);
4287     bool o0 = extract32(insn, 15, 1);
4288     bool o1 = extract32(insn, 21, 1);
4289
4290     switch (type) {
4291     case 0:
4292         handle_fp_3src_single(s, o0, o1, rd, rn, rm, ra);
4293         break;
4294     case 1:
4295         handle_fp_3src_double(s, o0, o1, rd, rn, rm, ra);
4296         break;
4297     default:
4298         unallocated_encoding(s);
4299     }
4300 }
4301
4302 /* C3.6.28 Floating point immediate
4303  *   31  30  29 28       24 23  22  21 20        13 12   10 9    5 4    0
4304  * +---+---+---+-----------+------+---+------------+-------+------+------+
4305  * | M | 0 | S | 1 1 1 1 0 | type | 1 |    imm8    | 1 0 0 | imm5 |  Rd  |
4306  * +---+---+---+-----------+------+---+------------+-------+------+------+
4307  */
4308 static void disas_fp_imm(DisasContext *s, uint32_t insn)
4309 {
4310     int rd = extract32(insn, 0, 5);
4311     int imm8 = extract32(insn, 13, 8);
4312     int is_double = extract32(insn, 22, 2);
4313     uint64_t imm;
4314     TCGv_i64 tcg_res;
4315
4316     if (is_double > 1) {
4317         unallocated_encoding(s);
4318         return;
4319     }
4320
4321     /* The imm8 encodes the sign bit, enough bits to represent
4322      * an exponent in the range 01....1xx to 10....0xx,
4323      * and the most significant 4 bits of the mantissa; see
4324      * VFPExpandImm() in the v8 ARM ARM.
4325      */
4326     if (is_double) {
4327         imm = (extract32(imm8, 7, 1) ? 0x8000 : 0) |
4328             (extract32(imm8, 6, 1) ? 0x3fc0 : 0x4000) |
4329             extract32(imm8, 0, 6);
4330         imm <<= 48;
4331     } else {
4332         imm = (extract32(imm8, 7, 1) ? 0x8000 : 0) |
4333             (extract32(imm8, 6, 1) ? 0x3e00 : 0x4000) |
4334             (extract32(imm8, 0, 6) << 3);
4335         imm <<= 16;
4336     }
4337
4338     tcg_res = tcg_const_i64(imm);
4339     write_fp_dreg(s, rd, tcg_res);
4340     tcg_temp_free_i64(tcg_res);
4341 }
4342
4343 /* Handle floating point <=> fixed point conversions. Note that we can
4344  * also deal with fp <=> integer conversions as a special case (scale == 64)
4345  * OPTME: consider handling that special case specially or at least skipping
4346  * the call to scalbn in the helpers for zero shifts.
4347  */
4348 static void handle_fpfpcvt(DisasContext *s, int rd, int rn, int opcode,
4349                            bool itof, int rmode, int scale, int sf, int type)
4350 {
4351     bool is_signed = !(opcode & 1);
4352     bool is_double = type;
4353     TCGv_ptr tcg_fpstatus;
4354     TCGv_i32 tcg_shift;
4355
4356     tcg_fpstatus = get_fpstatus_ptr();
4357
4358     tcg_shift = tcg_const_i32(64 - scale);
4359
4360     if (itof) {
4361         TCGv_i64 tcg_int = cpu_reg(s, rn);
4362         if (!sf) {
4363             TCGv_i64 tcg_extend = new_tmp_a64(s);
4364
4365             if (is_signed) {
4366                 tcg_gen_ext32s_i64(tcg_extend, tcg_int);
4367             } else {
4368                 tcg_gen_ext32u_i64(tcg_extend, tcg_int);
4369             }
4370
4371             tcg_int = tcg_extend;
4372         }
4373
4374         if (is_double) {
4375             TCGv_i64 tcg_double = tcg_temp_new_i64();
4376             if (is_signed) {
4377                 gen_helper_vfp_sqtod(tcg_double, tcg_int,
4378                                      tcg_shift, tcg_fpstatus);
4379             } else {
4380                 gen_helper_vfp_uqtod(tcg_double, tcg_int,
4381                                      tcg_shift, tcg_fpstatus);
4382             }
4383             write_fp_dreg(s, rd, tcg_double);
4384             tcg_temp_free_i64(tcg_double);
4385         } else {
4386             TCGv_i32 tcg_single = tcg_temp_new_i32();
4387             if (is_signed) {
4388                 gen_helper_vfp_sqtos(tcg_single, tcg_int,
4389                                      tcg_shift, tcg_fpstatus);
4390             } else {
4391                 gen_helper_vfp_uqtos(tcg_single, tcg_int,
4392                                      tcg_shift, tcg_fpstatus);
4393             }
4394             write_fp_sreg(s, rd, tcg_single);
4395             tcg_temp_free_i32(tcg_single);
4396         }
4397     } else {
4398         TCGv_i64 tcg_int = cpu_reg(s, rd);
4399         TCGv_i32 tcg_rmode;
4400
4401         if (extract32(opcode, 2, 1)) {
4402             /* There are too many rounding modes to all fit into rmode,
4403              * so FCVTA[US] is a special case.
4404              */
4405             rmode = FPROUNDING_TIEAWAY;
4406         }
4407
4408         tcg_rmode = tcg_const_i32(arm_rmode_to_sf(rmode));
4409
4410         gen_helper_set_rmode(tcg_rmode, tcg_rmode, cpu_env);
4411
4412         if (is_double) {
4413             TCGv_i64 tcg_double = read_fp_dreg(s, rn);
4414             if (is_signed) {
4415                 if (!sf) {
4416                     gen_helper_vfp_tosld(tcg_int, tcg_double,
4417                                          tcg_shift, tcg_fpstatus);
4418                 } else {
4419                     gen_helper_vfp_tosqd(tcg_int, tcg_double,
4420                                          tcg_shift, tcg_fpstatus);
4421                 }
4422             } else {
4423                 if (!sf) {
4424                     gen_helper_vfp_tould(tcg_int, tcg_double,
4425                                          tcg_shift, tcg_fpstatus);
4426                 } else {
4427                     gen_helper_vfp_touqd(tcg_int, tcg_double,
4428                                          tcg_shift, tcg_fpstatus);
4429                 }
4430             }
4431             tcg_temp_free_i64(tcg_double);
4432         } else {
4433             TCGv_i32 tcg_single = read_fp_sreg(s, rn);
4434             if (sf) {
4435                 if (is_signed) {
4436                     gen_helper_vfp_tosqs(tcg_int, tcg_single,
4437                                          tcg_shift, tcg_fpstatus);
4438                 } else {
4439                     gen_helper_vfp_touqs(tcg_int, tcg_single,
4440                                          tcg_shift, tcg_fpstatus);
4441                 }
4442             } else {
4443                 TCGv_i32 tcg_dest = tcg_temp_new_i32();
4444                 if (is_signed) {
4445                     gen_helper_vfp_tosls(tcg_dest, tcg_single,
4446                                          tcg_shift, tcg_fpstatus);
4447                 } else {
4448                     gen_helper_vfp_touls(tcg_dest, tcg_single,
4449                                          tcg_shift, tcg_fpstatus);
4450                 }
4451                 tcg_gen_extu_i32_i64(tcg_int, tcg_dest);
4452                 tcg_temp_free_i32(tcg_dest);
4453             }
4454             tcg_temp_free_i32(tcg_single);
4455         }
4456
4457         gen_helper_set_rmode(tcg_rmode, tcg_rmode, cpu_env);
4458         tcg_temp_free_i32(tcg_rmode);
4459
4460         if (!sf) {
4461             tcg_gen_ext32u_i64(tcg_int, tcg_int);
4462         }
4463     }
4464
4465     tcg_temp_free_ptr(tcg_fpstatus);
4466     tcg_temp_free_i32(tcg_shift);
4467 }
4468
4469 /* C3.6.29 Floating point <-> fixed point conversions
4470  *   31   30  29 28       24 23  22  21 20   19 18    16 15   10 9    5 4    0
4471  * +----+---+---+-----------+------+---+-------+--------+-------+------+------+
4472  * | sf | 0 | S | 1 1 1 1 0 | type | 0 | rmode | opcode | scale |  Rn  |  Rd  |
4473  * +----+---+---+-----------+------+---+-------+--------+-------+------+------+
4474  */
4475 static void disas_fp_fixed_conv(DisasContext *s, uint32_t insn)
4476 {
4477     int rd = extract32(insn, 0, 5);
4478     int rn = extract32(insn, 5, 5);
4479     int scale = extract32(insn, 10, 6);
4480     int opcode = extract32(insn, 16, 3);
4481     int rmode = extract32(insn, 19, 2);
4482     int type = extract32(insn, 22, 2);
4483     bool sbit = extract32(insn, 29, 1);
4484     bool sf = extract32(insn, 31, 1);
4485     bool itof;
4486
4487     if (sbit || (type > 1)
4488         || (!sf && scale < 32)) {
4489         unallocated_encoding(s);
4490         return;
4491     }
4492
4493     switch ((rmode << 3) | opcode) {
4494     case 0x2: /* SCVTF */
4495     case 0x3: /* UCVTF */
4496         itof = true;
4497         break;
4498     case 0x18: /* FCVTZS */
4499     case 0x19: /* FCVTZU */
4500         itof = false;
4501         break;
4502     default:
4503         unallocated_encoding(s);
4504         return;
4505     }
4506
4507     handle_fpfpcvt(s, rd, rn, opcode, itof, FPROUNDING_ZERO, scale, sf, type);
4508 }
4509
4510 static void handle_fmov(DisasContext *s, int rd, int rn, int type, bool itof)
4511 {
4512     /* FMOV: gpr to or from float, double, or top half of quad fp reg,
4513      * without conversion.
4514      */
4515
4516     if (itof) {
4517         TCGv_i64 tcg_rn = cpu_reg(s, rn);
4518
4519         switch (type) {
4520         case 0:
4521         {
4522             /* 32 bit */
4523             TCGv_i64 tmp = tcg_temp_new_i64();
4524             tcg_gen_ext32u_i64(tmp, tcg_rn);
4525             tcg_gen_st_i64(tmp, cpu_env, fp_reg_offset(rd, MO_64));
4526             tcg_gen_movi_i64(tmp, 0);
4527             tcg_gen_st_i64(tmp, cpu_env, fp_reg_hi_offset(rd));
4528             tcg_temp_free_i64(tmp);
4529             break;
4530         }
4531         case 1:
4532         {
4533             /* 64 bit */
4534             TCGv_i64 tmp = tcg_const_i64(0);
4535             tcg_gen_st_i64(tcg_rn, cpu_env, fp_reg_offset(rd, MO_64));
4536             tcg_gen_st_i64(tmp, cpu_env, fp_reg_hi_offset(rd));
4537             tcg_temp_free_i64(tmp);
4538             break;
4539         }
4540         case 2:
4541             /* 64 bit to top half. */
4542             tcg_gen_st_i64(tcg_rn, cpu_env, fp_reg_hi_offset(rd));
4543             break;
4544         }
4545     } else {
4546         TCGv_i64 tcg_rd = cpu_reg(s, rd);
4547
4548         switch (type) {
4549         case 0:
4550             /* 32 bit */
4551             tcg_gen_ld32u_i64(tcg_rd, cpu_env, fp_reg_offset(rn, MO_32));
4552             break;
4553         case 1:
4554             /* 64 bit */
4555             tcg_gen_ld_i64(tcg_rd, cpu_env, fp_reg_offset(rn, MO_64));
4556             break;
4557         case 2:
4558             /* 64 bits from top half */
4559             tcg_gen_ld_i64(tcg_rd, cpu_env, fp_reg_hi_offset(rn));
4560             break;
4561         }
4562     }
4563 }
4564
4565 /* C3.6.30 Floating point <-> integer conversions
4566  *   31   30  29 28       24 23  22  21 20   19 18 16 15         10 9  5 4  0
4567  * +----+---+---+-----------+------+---+-------+-----+-------------+----+----+
4568  * | sf | 0 | S | 1 1 1 1 0 | type | 1 | rmode | opc | 0 0 0 0 0 0 | Rn | Rd |
4569  * +----+---+---+-----------+------+---+-------+-----+-------------+----+----+
4570  */
4571 static void disas_fp_int_conv(DisasContext *s, uint32_t insn)
4572 {
4573     int rd = extract32(insn, 0, 5);
4574     int rn = extract32(insn, 5, 5);
4575     int opcode = extract32(insn, 16, 3);
4576     int rmode = extract32(insn, 19, 2);
4577     int type = extract32(insn, 22, 2);
4578     bool sbit = extract32(insn, 29, 1);
4579     bool sf = extract32(insn, 31, 1);
4580
4581     if (sbit) {
4582         unallocated_encoding(s);
4583         return;
4584     }
4585
4586     if (opcode > 5) {
4587         /* FMOV */
4588         bool itof = opcode & 1;
4589
4590         if (rmode >= 2) {
4591             unallocated_encoding(s);
4592             return;
4593         }
4594
4595         switch (sf << 3 | type << 1 | rmode) {
4596         case 0x0: /* 32 bit */
4597         case 0xa: /* 64 bit */
4598         case 0xd: /* 64 bit to top half of quad */
4599             break;
4600         default:
4601             /* all other sf/type/rmode combinations are invalid */
4602             unallocated_encoding(s);
4603             break;
4604         }
4605
4606         handle_fmov(s, rd, rn, type, itof);
4607     } else {
4608         /* actual FP conversions */
4609         bool itof = extract32(opcode, 1, 1);
4610
4611         if (type > 1 || (rmode != 0 && opcode > 1)) {
4612             unallocated_encoding(s);
4613             return;
4614         }
4615
4616         handle_fpfpcvt(s, rd, rn, opcode, itof, rmode, 64, sf, type);
4617     }
4618 }
4619
4620 /* FP-specific subcases of table C3-6 (SIMD and FP data processing)
4621  *   31  30  29 28     25 24                          0
4622  * +---+---+---+---------+-----------------------------+
4623  * |   | 0 |   | 1 1 1 1 |                             |
4624  * +---+---+---+---------+-----------------------------+
4625  */
4626 static void disas_data_proc_fp(DisasContext *s, uint32_t insn)
4627 {
4628     if (extract32(insn, 24, 1)) {
4629         /* Floating point data-processing (3 source) */
4630         disas_fp_3src(s, insn);
4631     } else if (extract32(insn, 21, 1) == 0) {
4632         /* Floating point to fixed point conversions */
4633         disas_fp_fixed_conv(s, insn);
4634     } else {
4635         switch (extract32(insn, 10, 2)) {
4636         case 1:
4637             /* Floating point conditional compare */
4638             disas_fp_ccomp(s, insn);
4639             break;
4640         case 2:
4641             /* Floating point data-processing (2 source) */
4642             disas_fp_2src(s, insn);
4643             break;
4644         case 3:
4645             /* Floating point conditional select */
4646             disas_fp_csel(s, insn);
4647             break;
4648         case 0:
4649             switch (ctz32(extract32(insn, 12, 4))) {
4650             case 0: /* [15:12] == xxx1 */
4651                 /* Floating point immediate */
4652                 disas_fp_imm(s, insn);
4653                 break;
4654             case 1: /* [15:12] == xx10 */
4655                 /* Floating point compare */
4656                 disas_fp_compare(s, insn);
4657                 break;
4658             case 2: /* [15:12] == x100 */
4659                 /* Floating point data-processing (1 source) */
4660                 disas_fp_1src(s, insn);
4661                 break;
4662             case 3: /* [15:12] == 1000 */
4663                 unallocated_encoding(s);
4664                 break;
4665             default: /* [15:12] == 0000 */
4666                 /* Floating point <-> integer conversions */
4667                 disas_fp_int_conv(s, insn);
4668                 break;
4669             }
4670             break;
4671         }
4672     }
4673 }
4674
4675 static void do_ext64(DisasContext *s, TCGv_i64 tcg_left, TCGv_i64 tcg_right,
4676                      int pos)
4677 {
4678     /* Extract 64 bits from the middle of two concatenated 64 bit
4679      * vector register slices left:right. The extracted bits start
4680      * at 'pos' bits into the right (least significant) side.
4681      * We return the result in tcg_right, and guarantee not to
4682      * trash tcg_left.
4683      */
4684     TCGv_i64 tcg_tmp = tcg_temp_new_i64();
4685     assert(pos > 0 && pos < 64);
4686
4687     tcg_gen_shri_i64(tcg_right, tcg_right, pos);
4688     tcg_gen_shli_i64(tcg_tmp, tcg_left, 64 - pos);
4689     tcg_gen_or_i64(tcg_right, tcg_right, tcg_tmp);
4690
4691     tcg_temp_free_i64(tcg_tmp);
4692 }
4693
4694 /* C3.6.1 EXT
4695  *   31  30 29         24 23 22  21 20  16 15  14  11 10  9    5 4    0
4696  * +---+---+-------------+-----+---+------+---+------+---+------+------+
4697  * | 0 | Q | 1 0 1 1 1 0 | op2 | 0 |  Rm  | 0 | imm4 | 0 |  Rn  |  Rd  |
4698  * +---+---+-------------+-----+---+------+---+------+---+------+------+
4699  */
4700 static void disas_simd_ext(DisasContext *s, uint32_t insn)
4701 {
4702     int is_q = extract32(insn, 30, 1);
4703     int op2 = extract32(insn, 22, 2);
4704     int imm4 = extract32(insn, 11, 4);
4705     int rm = extract32(insn, 16, 5);
4706     int rn = extract32(insn, 5, 5);
4707     int rd = extract32(insn, 0, 5);
4708     int pos = imm4 << 3;
4709     TCGv_i64 tcg_resl, tcg_resh;
4710
4711     if (op2 != 0 || (!is_q && extract32(imm4, 3, 1))) {
4712         unallocated_encoding(s);
4713         return;
4714     }
4715
4716     tcg_resh = tcg_temp_new_i64();
4717     tcg_resl = tcg_temp_new_i64();
4718
4719     /* Vd gets bits starting at pos bits into Vm:Vn. This is
4720      * either extracting 128 bits from a 128:128 concatenation, or
4721      * extracting 64 bits from a 64:64 concatenation.
4722      */
4723     if (!is_q) {
4724         read_vec_element(s, tcg_resl, rn, 0, MO_64);
4725         if (pos != 0) {
4726             read_vec_element(s, tcg_resh, rm, 0, MO_64);
4727             do_ext64(s, tcg_resh, tcg_resl, pos);
4728         }
4729         tcg_gen_movi_i64(tcg_resh, 0);
4730     } else {
4731         TCGv_i64 tcg_hh;
4732         typedef struct {
4733             int reg;
4734             int elt;
4735         } EltPosns;
4736         EltPosns eltposns[] = { {rn, 0}, {rn, 1}, {rm, 0}, {rm, 1} };
4737         EltPosns *elt = eltposns;
4738
4739         if (pos >= 64) {
4740             elt++;
4741             pos -= 64;
4742         }
4743
4744         read_vec_element(s, tcg_resl, elt->reg, elt->elt, MO_64);
4745         elt++;
4746         read_vec_element(s, tcg_resh, elt->reg, elt->elt, MO_64);
4747         elt++;
4748         if (pos != 0) {
4749             do_ext64(s, tcg_resh, tcg_resl, pos);
4750             tcg_hh = tcg_temp_new_i64();
4751             read_vec_element(s, tcg_hh, elt->reg, elt->elt, MO_64);
4752             do_ext64(s, tcg_hh, tcg_resh, pos);
4753             tcg_temp_free_i64(tcg_hh);
4754         }
4755     }
4756
4757     write_vec_element(s, tcg_resl, rd, 0, MO_64);
4758     tcg_temp_free_i64(tcg_resl);
4759     write_vec_element(s, tcg_resh, rd, 1, MO_64);
4760     tcg_temp_free_i64(tcg_resh);
4761 }
4762
4763 /* C3.6.2 TBL/TBX
4764  *   31  30 29         24 23 22  21 20  16 15  14 13  12  11 10 9    5 4    0
4765  * +---+---+-------------+-----+---+------+---+-----+----+-----+------+------+
4766  * | 0 | Q | 0 0 1 1 1 0 | op2 | 0 |  Rm  | 0 | len | op | 0 0 |  Rn  |  Rd  |
4767  * +---+---+-------------+-----+---+------+---+-----+----+-----+------+------+
4768  */
4769 static void disas_simd_tb(DisasContext *s, uint32_t insn)
4770 {
4771     int op2 = extract32(insn, 22, 2);
4772     int is_q = extract32(insn, 30, 1);
4773     int rm = extract32(insn, 16, 5);
4774     int rn = extract32(insn, 5, 5);
4775     int rd = extract32(insn, 0, 5);
4776     int is_tblx = extract32(insn, 12, 1);
4777     int len = extract32(insn, 13, 2);
4778     TCGv_i64 tcg_resl, tcg_resh, tcg_idx;
4779     TCGv_i32 tcg_regno, tcg_numregs;
4780
4781     if (op2 != 0) {
4782         unallocated_encoding(s);
4783         return;
4784     }
4785
4786     /* This does a table lookup: for every byte element in the input
4787      * we index into a table formed from up to four vector registers,
4788      * and then the output is the result of the lookups. Our helper
4789      * function does the lookup operation for a single 64 bit part of
4790      * the input.
4791      */
4792     tcg_resl = tcg_temp_new_i64();
4793     tcg_resh = tcg_temp_new_i64();
4794
4795     if (is_tblx) {
4796         read_vec_element(s, tcg_resl, rd, 0, MO_64);
4797     } else {
4798         tcg_gen_movi_i64(tcg_resl, 0);
4799     }
4800     if (is_tblx && is_q) {
4801         read_vec_element(s, tcg_resh, rd, 1, MO_64);
4802     } else {
4803         tcg_gen_movi_i64(tcg_resh, 0);
4804     }
4805
4806     tcg_idx = tcg_temp_new_i64();
4807     tcg_regno = tcg_const_i32(rn);
4808     tcg_numregs = tcg_const_i32(len + 1);
4809     read_vec_element(s, tcg_idx, rm, 0, MO_64);
4810     gen_helper_simd_tbl(tcg_resl, cpu_env, tcg_resl, tcg_idx,
4811                         tcg_regno, tcg_numregs);
4812     if (is_q) {
4813         read_vec_element(s, tcg_idx, rm, 1, MO_64);
4814         gen_helper_simd_tbl(tcg_resh, cpu_env, tcg_resh, tcg_idx,
4815                             tcg_regno, tcg_numregs);
4816     }
4817     tcg_temp_free_i64(tcg_idx);
4818     tcg_temp_free_i32(tcg_regno);
4819     tcg_temp_free_i32(tcg_numregs);
4820
4821     write_vec_element(s, tcg_resl, rd, 0, MO_64);
4822     tcg_temp_free_i64(tcg_resl);
4823     write_vec_element(s, tcg_resh, rd, 1, MO_64);
4824     tcg_temp_free_i64(tcg_resh);
4825 }
4826
4827 /* C3.6.3 ZIP/UZP/TRN
4828  *   31  30 29         24 23  22  21 20   16 15 14 12 11 10 9    5 4    0
4829  * +---+---+-------------+------+---+------+---+------------------+------+
4830  * | 0 | Q | 0 0 1 1 1 0 | size | 0 |  Rm  | 0 | opc | 1 0 |  Rn  |  Rd  |
4831  * +---+---+-------------+------+---+------+---+------------------+------+
4832  */
4833 static void disas_simd_zip_trn(DisasContext *s, uint32_t insn)
4834 {
4835     int rd = extract32(insn, 0, 5);
4836     int rn = extract32(insn, 5, 5);
4837     int rm = extract32(insn, 16, 5);
4838     int size = extract32(insn, 22, 2);
4839     /* opc field bits [1:0] indicate ZIP/UZP/TRN;
4840      * bit 2 indicates 1 vs 2 variant of the insn.
4841      */
4842     int opcode = extract32(insn, 12, 2);
4843     bool part = extract32(insn, 14, 1);
4844     bool is_q = extract32(insn, 30, 1);
4845     int esize = 8 << size;
4846     int i, ofs;
4847     int datasize = is_q ? 128 : 64;
4848     int elements = datasize / esize;
4849     TCGv_i64 tcg_res, tcg_resl, tcg_resh;
4850
4851     if (opcode == 0 || (size == 3 && !is_q)) {
4852         unallocated_encoding(s);
4853         return;
4854     }
4855
4856     tcg_resl = tcg_const_i64(0);
4857     tcg_resh = tcg_const_i64(0);
4858     tcg_res = tcg_temp_new_i64();
4859
4860     for (i = 0; i < elements; i++) {
4861         switch (opcode) {
4862         case 1: /* UZP1/2 */
4863         {
4864             int midpoint = elements / 2;
4865             if (i < midpoint) {
4866                 read_vec_element(s, tcg_res, rn, 2 * i + part, size);
4867             } else {
4868                 read_vec_element(s, tcg_res, rm,
4869                                  2 * (i - midpoint) + part, size);
4870             }
4871             break;
4872         }
4873         case 2: /* TRN1/2 */
4874             if (i & 1) {
4875                 read_vec_element(s, tcg_res, rm, (i & ~1) + part, size);
4876             } else {
4877                 read_vec_element(s, tcg_res, rn, (i & ~1) + part, size);
4878             }
4879             break;
4880         case 3: /* ZIP1/2 */
4881         {
4882             int base = part * elements / 2;
4883             if (i & 1) {
4884                 read_vec_element(s, tcg_res, rm, base + (i >> 1), size);
4885             } else {
4886                 read_vec_element(s, tcg_res, rn, base + (i >> 1), size);
4887             }
4888             break;
4889         }
4890         default:
4891             g_assert_not_reached();
4892         }
4893
4894         ofs = i * esize;
4895         if (ofs < 64) {
4896             tcg_gen_shli_i64(tcg_res, tcg_res, ofs);
4897             tcg_gen_or_i64(tcg_resl, tcg_resl, tcg_res);
4898         } else {
4899             tcg_gen_shli_i64(tcg_res, tcg_res, ofs - 64);
4900             tcg_gen_or_i64(tcg_resh, tcg_resh, tcg_res);
4901         }
4902     }
4903
4904     tcg_temp_free_i64(tcg_res);
4905
4906     write_vec_element(s, tcg_resl, rd, 0, MO_64);
4907     tcg_temp_free_i64(tcg_resl);
4908     write_vec_element(s, tcg_resh, rd, 1, MO_64);
4909     tcg_temp_free_i64(tcg_resh);
4910 }
4911
4912 static void do_minmaxop(DisasContext *s, TCGv_i32 tcg_elt1, TCGv_i32 tcg_elt2,
4913                         int opc, bool is_min, TCGv_ptr fpst)
4914 {
4915     /* Helper function for disas_simd_across_lanes: do a single precision
4916      * min/max operation on the specified two inputs,
4917      * and return the result in tcg_elt1.
4918      */
4919     if (opc == 0xc) {
4920         if (is_min) {
4921             gen_helper_vfp_minnums(tcg_elt1, tcg_elt1, tcg_elt2, fpst);
4922         } else {
4923             gen_helper_vfp_maxnums(tcg_elt1, tcg_elt1, tcg_elt2, fpst);
4924         }
4925     } else {
4926         assert(opc == 0xf);
4927         if (is_min) {
4928             gen_helper_vfp_mins(tcg_elt1, tcg_elt1, tcg_elt2, fpst);
4929         } else {
4930             gen_helper_vfp_maxs(tcg_elt1, tcg_elt1, tcg_elt2, fpst);
4931         }
4932     }
4933 }
4934
4935 /* C3.6.4 AdvSIMD across lanes
4936  *   31  30  29 28       24 23  22 21       17 16    12 11 10 9    5 4    0
4937  * +---+---+---+-----------+------+-----------+--------+-----+------+------+
4938  * | 0 | Q | U | 0 1 1 1 0 | size | 1 1 0 0 0 | opcode | 1 0 |  Rn  |  Rd  |
4939  * +---+---+---+-----------+------+-----------+--------+-----+------+------+
4940  */
4941 static void disas_simd_across_lanes(DisasContext *s, uint32_t insn)
4942 {
4943     int rd = extract32(insn, 0, 5);
4944     int rn = extract32(insn, 5, 5);
4945     int size = extract32(insn, 22, 2);
4946     int opcode = extract32(insn, 12, 5);
4947     bool is_q = extract32(insn, 30, 1);
4948     bool is_u = extract32(insn, 29, 1);
4949     bool is_fp = false;
4950     bool is_min = false;
4951     int esize;
4952     int elements;
4953     int i;
4954     TCGv_i64 tcg_res, tcg_elt;
4955
4956     switch (opcode) {
4957     case 0x1b: /* ADDV */
4958         if (is_u) {
4959             unallocated_encoding(s);
4960             return;
4961         }
4962         /* fall through */
4963     case 0x3: /* SADDLV, UADDLV */
4964     case 0xa: /* SMAXV, UMAXV */
4965     case 0x1a: /* SMINV, UMINV */
4966         if (size == 3 || (size == 2 && !is_q)) {
4967             unallocated_encoding(s);
4968             return;
4969         }
4970         break;
4971     case 0xc: /* FMAXNMV, FMINNMV */
4972     case 0xf: /* FMAXV, FMINV */
4973         if (!is_u || !is_q || extract32(size, 0, 1)) {
4974             unallocated_encoding(s);
4975             return;
4976         }
4977         /* Bit 1 of size field encodes min vs max, and actual size is always
4978          * 32 bits: adjust the size variable so following code can rely on it
4979          */
4980         is_min = extract32(size, 1, 1);
4981         is_fp = true;
4982         size = 2;
4983         break;
4984     default:
4985         unallocated_encoding(s);
4986         return;
4987     }
4988
4989     esize = 8 << size;
4990     elements = (is_q ? 128 : 64) / esize;
4991
4992     tcg_res = tcg_temp_new_i64();
4993     tcg_elt = tcg_temp_new_i64();
4994
4995     /* These instructions operate across all lanes of a vector
4996      * to produce a single result. We can guarantee that a 64
4997      * bit intermediate is sufficient:
4998      *  + for [US]ADDLV the maximum element size is 32 bits, and
4999      *    the result type is 64 bits
5000      *  + for FMAX*V, FMIN*V, ADDV the intermediate type is the
5001      *    same as the element size, which is 32 bits at most
5002      * For the integer operations we can choose to work at 64
5003      * or 32 bits and truncate at the end; for simplicity
5004      * we use 64 bits always. The floating point
5005      * ops do require 32 bit intermediates, though.
5006      */
5007     if (!is_fp) {
5008         read_vec_element(s, tcg_res, rn, 0, size | (is_u ? 0 : MO_SIGN));
5009
5010         for (i = 1; i < elements; i++) {
5011             read_vec_element(s, tcg_elt, rn, i, size | (is_u ? 0 : MO_SIGN));
5012
5013             switch (opcode) {
5014             case 0x03: /* SADDLV / UADDLV */
5015             case 0x1b: /* ADDV */
5016                 tcg_gen_add_i64(tcg_res, tcg_res, tcg_elt);
5017                 break;
5018             case 0x0a: /* SMAXV / UMAXV */
5019                 tcg_gen_movcond_i64(is_u ? TCG_COND_GEU : TCG_COND_GE,
5020                                     tcg_res,
5021                                     tcg_res, tcg_elt, tcg_res, tcg_elt);
5022                 break;
5023             case 0x1a: /* SMINV / UMINV */
5024                 tcg_gen_movcond_i64(is_u ? TCG_COND_LEU : TCG_COND_LE,
5025                                     tcg_res,
5026                                     tcg_res, tcg_elt, tcg_res, tcg_elt);
5027                 break;
5028                 break;
5029             default:
5030                 g_assert_not_reached();
5031             }
5032
5033         }
5034     } else {
5035         /* Floating point ops which work on 32 bit (single) intermediates.
5036          * Note that correct NaN propagation requires that we do these
5037          * operations in exactly the order specified by the pseudocode.
5038          */
5039         TCGv_i32 tcg_elt1 = tcg_temp_new_i32();
5040         TCGv_i32 tcg_elt2 = tcg_temp_new_i32();
5041         TCGv_i32 tcg_elt3 = tcg_temp_new_i32();
5042         TCGv_ptr fpst = get_fpstatus_ptr();
5043
5044         assert(esize == 32);
5045         assert(elements == 4);
5046
5047         read_vec_element(s, tcg_elt, rn, 0, MO_32);
5048         tcg_gen_trunc_i64_i32(tcg_elt1, tcg_elt);
5049         read_vec_element(s, tcg_elt, rn, 1, MO_32);
5050         tcg_gen_trunc_i64_i32(tcg_elt2, tcg_elt);
5051
5052         do_minmaxop(s, tcg_elt1, tcg_elt2, opcode, is_min, fpst);
5053
5054         read_vec_element(s, tcg_elt, rn, 2, MO_32);
5055         tcg_gen_trunc_i64_i32(tcg_elt2, tcg_elt);
5056         read_vec_element(s, tcg_elt, rn, 3, MO_32);
5057         tcg_gen_trunc_i64_i32(tcg_elt3, tcg_elt);
5058
5059         do_minmaxop(s, tcg_elt2, tcg_elt3, opcode, is_min, fpst);
5060
5061         do_minmaxop(s, tcg_elt1, tcg_elt2, opcode, is_min, fpst);
5062
5063         tcg_gen_extu_i32_i64(tcg_res, tcg_elt1);
5064         tcg_temp_free_i32(tcg_elt1);
5065         tcg_temp_free_i32(tcg_elt2);
5066         tcg_temp_free_i32(tcg_elt3);
5067         tcg_temp_free_ptr(fpst);
5068     }
5069
5070     tcg_temp_free_i64(tcg_elt);
5071
5072     /* Now truncate the result to the width required for the final output */
5073     if (opcode == 0x03) {
5074         /* SADDLV, UADDLV: result is 2*esize */
5075         size++;
5076     }
5077
5078     switch (size) {
5079     case 0:
5080         tcg_gen_ext8u_i64(tcg_res, tcg_res);
5081         break;
5082     case 1:
5083         tcg_gen_ext16u_i64(tcg_res, tcg_res);
5084         break;
5085     case 2:
5086         tcg_gen_ext32u_i64(tcg_res, tcg_res);
5087         break;
5088     case 3:
5089         break;
5090     default:
5091         g_assert_not_reached();
5092     }
5093
5094     write_fp_dreg(s, rd, tcg_res);
5095     tcg_temp_free_i64(tcg_res);
5096 }
5097
5098 /* C6.3.31 DUP (Element, Vector)
5099  *
5100  *  31  30   29              21 20    16 15        10  9    5 4    0
5101  * +---+---+-------------------+--------+-------------+------+------+
5102  * | 0 | Q | 0 0 1 1 1 0 0 0 0 |  imm5  | 0 0 0 0 0 1 |  Rn  |  Rd  |
5103  * +---+---+-------------------+--------+-------------+------+------+
5104  *
5105  * size: encoded in imm5 (see ARM ARM LowestSetBit())
5106  */
5107 static void handle_simd_dupe(DisasContext *s, int is_q, int rd, int rn,
5108                              int imm5)
5109 {
5110     int size = ctz32(imm5);
5111     int esize = 8 << size;
5112     int elements = (is_q ? 128 : 64) / esize;
5113     int index, i;
5114     TCGv_i64 tmp;
5115
5116     if (size > 3 || (size == 3 && !is_q)) {
5117         unallocated_encoding(s);
5118         return;
5119     }
5120
5121     index = imm5 >> (size + 1);
5122
5123     tmp = tcg_temp_new_i64();
5124     read_vec_element(s, tmp, rn, index, size);
5125
5126     for (i = 0; i < elements; i++) {
5127         write_vec_element(s, tmp, rd, i, size);
5128     }
5129
5130     if (!is_q) {
5131         clear_vec_high(s, rd);
5132     }
5133
5134     tcg_temp_free_i64(tmp);
5135 }
5136
5137 /* C6.3.31 DUP (element, scalar)
5138  *  31                   21 20    16 15        10  9    5 4    0
5139  * +-----------------------+--------+-------------+------+------+
5140  * | 0 1 0 1 1 1 1 0 0 0 0 |  imm5  | 0 0 0 0 0 1 |  Rn  |  Rd  |
5141  * +-----------------------+--------+-------------+------+------+
5142  */
5143 static void handle_simd_dupes(DisasContext *s, int rd, int rn,
5144                               int imm5)
5145 {
5146     int size = ctz32(imm5);
5147     int index;
5148     TCGv_i64 tmp;
5149
5150     if (size > 3) {
5151         unallocated_encoding(s);
5152         return;
5153     }
5154
5155     index = imm5 >> (size + 1);
5156
5157     /* This instruction just extracts the specified element and
5158      * zero-extends it into the bottom of the destination register.
5159      */
5160     tmp = tcg_temp_new_i64();
5161     read_vec_element(s, tmp, rn, index, size);
5162     write_fp_dreg(s, rd, tmp);
5163     tcg_temp_free_i64(tmp);
5164 }
5165
5166 /* C6.3.32 DUP (General)
5167  *
5168  *  31  30   29              21 20    16 15        10  9    5 4    0
5169  * +---+---+-------------------+--------+-------------+------+------+
5170  * | 0 | Q | 0 0 1 1 1 0 0 0 0 |  imm5  | 0 0 0 0 1 1 |  Rn  |  Rd  |
5171  * +---+---+-------------------+--------+-------------+------+------+
5172  *
5173  * size: encoded in imm5 (see ARM ARM LowestSetBit())
5174  */
5175 static void handle_simd_dupg(DisasContext *s, int is_q, int rd, int rn,
5176                              int imm5)
5177 {
5178     int size = ctz32(imm5);
5179     int esize = 8 << size;
5180     int elements = (is_q ? 128 : 64)/esize;
5181     int i = 0;
5182
5183     if (size > 3 || ((size == 3) && !is_q)) {
5184         unallocated_encoding(s);
5185         return;
5186     }
5187     for (i = 0; i < elements; i++) {
5188         write_vec_element(s, cpu_reg(s, rn), rd, i, size);
5189     }
5190     if (!is_q) {
5191         clear_vec_high(s, rd);
5192     }
5193 }
5194
5195 /* C6.3.150 INS (Element)
5196  *
5197  *  31                   21 20    16 15  14    11  10 9    5 4    0
5198  * +-----------------------+--------+------------+---+------+------+
5199  * | 0 1 1 0 1 1 1 0 0 0 0 |  imm5  | 0 |  imm4  | 1 |  Rn  |  Rd  |
5200  * +-----------------------+--------+------------+---+------+------+
5201  *
5202  * size: encoded in imm5 (see ARM ARM LowestSetBit())
5203  * index: encoded in imm5<4:size+1>
5204  */
5205 static void handle_simd_inse(DisasContext *s, int rd, int rn,
5206                              int imm4, int imm5)
5207 {
5208     int size = ctz32(imm5);
5209     int src_index, dst_index;
5210     TCGv_i64 tmp;
5211
5212     if (size > 3) {
5213         unallocated_encoding(s);
5214         return;
5215     }
5216     dst_index = extract32(imm5, 1+size, 5);
5217     src_index = extract32(imm4, size, 4);
5218
5219     tmp = tcg_temp_new_i64();
5220
5221     read_vec_element(s, tmp, rn, src_index, size);
5222     write_vec_element(s, tmp, rd, dst_index, size);
5223
5224     tcg_temp_free_i64(tmp);
5225 }
5226
5227
5228 /* C6.3.151 INS (General)
5229  *
5230  *  31                   21 20    16 15        10  9    5 4    0
5231  * +-----------------------+--------+-------------+------+------+
5232  * | 0 1 0 0 1 1 1 0 0 0 0 |  imm5  | 0 0 0 1 1 1 |  Rn  |  Rd  |
5233  * +-----------------------+--------+-------------+------+------+
5234  *
5235  * size: encoded in imm5 (see ARM ARM LowestSetBit())
5236  * index: encoded in imm5<4:size+1>
5237  */
5238 static void handle_simd_insg(DisasContext *s, int rd, int rn, int imm5)
5239 {
5240     int size = ctz32(imm5);
5241     int idx;
5242
5243     if (size > 3) {
5244         unallocated_encoding(s);
5245         return;
5246     }
5247
5248     idx = extract32(imm5, 1 + size, 4 - size);
5249     write_vec_element(s, cpu_reg(s, rn), rd, idx, size);
5250 }
5251
5252 /*
5253  * C6.3.321 UMOV (General)
5254  * C6.3.237 SMOV (General)
5255  *
5256  *  31  30   29              21 20    16 15    12   10 9    5 4    0
5257  * +---+---+-------------------+--------+-------------+------+------+
5258  * | 0 | Q | 0 0 1 1 1 0 0 0 0 |  imm5  | 0 0 1 U 1 1 |  Rn  |  Rd  |
5259  * +---+---+-------------------+--------+-------------+------+------+
5260  *
5261  * U: unsigned when set
5262  * size: encoded in imm5 (see ARM ARM LowestSetBit())
5263  */
5264 static void handle_simd_umov_smov(DisasContext *s, int is_q, int is_signed,
5265                                   int rn, int rd, int imm5)
5266 {
5267     int size = ctz32(imm5);
5268     int element;
5269     TCGv_i64 tcg_rd;
5270
5271     /* Check for UnallocatedEncodings */
5272     if (is_signed) {
5273         if (size > 2 || (size == 2 && !is_q)) {
5274             unallocated_encoding(s);
5275             return;
5276         }
5277     } else {
5278         if (size > 3
5279             || (size < 3 && is_q)
5280             || (size == 3 && !is_q)) {
5281             unallocated_encoding(s);
5282             return;
5283         }
5284     }
5285     element = extract32(imm5, 1+size, 4);
5286
5287     tcg_rd = cpu_reg(s, rd);
5288     read_vec_element(s, tcg_rd, rn, element, size | (is_signed ? MO_SIGN : 0));
5289     if (is_signed && !is_q) {
5290         tcg_gen_ext32u_i64(tcg_rd, tcg_rd);
5291     }
5292 }
5293
5294 /* C3.6.5 AdvSIMD copy
5295  *   31  30  29  28             21 20  16 15  14  11 10  9    5 4    0
5296  * +---+---+----+-----------------+------+---+------+---+------+------+
5297  * | 0 | Q | op | 0 1 1 1 0 0 0 0 | imm5 | 0 | imm4 | 1 |  Rn  |  Rd  |
5298  * +---+---+----+-----------------+------+---+------+---+------+------+
5299  */
5300 static void disas_simd_copy(DisasContext *s, uint32_t insn)
5301 {
5302     int rd = extract32(insn, 0, 5);
5303     int rn = extract32(insn, 5, 5);
5304     int imm4 = extract32(insn, 11, 4);
5305     int op = extract32(insn, 29, 1);
5306     int is_q = extract32(insn, 30, 1);
5307     int imm5 = extract32(insn, 16, 5);
5308
5309     if (op) {
5310         if (is_q) {
5311             /* INS (element) */
5312             handle_simd_inse(s, rd, rn, imm4, imm5);
5313         } else {
5314             unallocated_encoding(s);
5315         }
5316     } else {
5317         switch (imm4) {
5318         case 0:
5319             /* DUP (element - vector) */
5320             handle_simd_dupe(s, is_q, rd, rn, imm5);
5321             break;
5322         case 1:
5323             /* DUP (general) */
5324             handle_simd_dupg(s, is_q, rd, rn, imm5);
5325             break;
5326         case 3:
5327             if (is_q) {
5328                 /* INS (general) */
5329                 handle_simd_insg(s, rd, rn, imm5);
5330             } else {
5331                 unallocated_encoding(s);
5332             }
5333             break;
5334         case 5:
5335         case 7:
5336             /* UMOV/SMOV (is_q indicates 32/64; imm4 indicates signedness) */
5337             handle_simd_umov_smov(s, is_q, (imm4 == 5), rn, rd, imm5);
5338             break;
5339         default:
5340             unallocated_encoding(s);
5341             break;
5342         }
5343     }
5344 }
5345
5346 /* C3.6.6 AdvSIMD modified immediate
5347  *  31  30   29  28                 19 18 16 15   12  11  10  9     5 4    0
5348  * +---+---+----+---------------------+-----+-------+----+---+-------+------+
5349  * | 0 | Q | op | 0 1 1 1 1 0 0 0 0 0 | abc | cmode | o2 | 1 | defgh |  Rd  |
5350  * +---+---+----+---------------------+-----+-------+----+---+-------+------+
5351  *
5352  * There are a number of operations that can be carried out here:
5353  *   MOVI - move (shifted) imm into register
5354  *   MVNI - move inverted (shifted) imm into register
5355  *   ORR  - bitwise OR of (shifted) imm with register
5356  *   BIC  - bitwise clear of (shifted) imm with register
5357  */
5358 static void disas_simd_mod_imm(DisasContext *s, uint32_t insn)
5359 {
5360     int rd = extract32(insn, 0, 5);
5361     int cmode = extract32(insn, 12, 4);
5362     int cmode_3_1 = extract32(cmode, 1, 3);
5363     int cmode_0 = extract32(cmode, 0, 1);
5364     int o2 = extract32(insn, 11, 1);
5365     uint64_t abcdefgh = extract32(insn, 5, 5) | (extract32(insn, 16, 3) << 5);
5366     bool is_neg = extract32(insn, 29, 1);
5367     bool is_q = extract32(insn, 30, 1);
5368     uint64_t imm = 0;
5369     TCGv_i64 tcg_rd, tcg_imm;
5370     int i;
5371
5372     if (o2 != 0 || ((cmode == 0xf) && is_neg && !is_q)) {
5373         unallocated_encoding(s);
5374         return;
5375     }
5376
5377     /* See AdvSIMDExpandImm() in ARM ARM */
5378     switch (cmode_3_1) {
5379     case 0: /* Replicate(Zeros(24):imm8, 2) */
5380     case 1: /* Replicate(Zeros(16):imm8:Zeros(8), 2) */
5381     case 2: /* Replicate(Zeros(8):imm8:Zeros(16), 2) */
5382     case 3: /* Replicate(imm8:Zeros(24), 2) */
5383     {
5384         int shift = cmode_3_1 * 8;
5385         imm = bitfield_replicate(abcdefgh << shift, 32);
5386         break;
5387     }
5388     case 4: /* Replicate(Zeros(8):imm8, 4) */
5389     case 5: /* Replicate(imm8:Zeros(8), 4) */
5390     {
5391         int shift = (cmode_3_1 & 0x1) * 8;
5392         imm = bitfield_replicate(abcdefgh << shift, 16);
5393         break;
5394     }
5395     case 6:
5396         if (cmode_0) {
5397             /* Replicate(Zeros(8):imm8:Ones(16), 2) */
5398             imm = (abcdefgh << 16) | 0xffff;
5399         } else {
5400             /* Replicate(Zeros(16):imm8:Ones(8), 2) */
5401             imm = (abcdefgh << 8) | 0xff;
5402         }
5403         imm = bitfield_replicate(imm, 32);
5404         break;
5405     case 7:
5406         if (!cmode_0 && !is_neg) {
5407             imm = bitfield_replicate(abcdefgh, 8);
5408         } else if (!cmode_0 && is_neg) {
5409             int i;
5410             imm = 0;
5411             for (i = 0; i < 8; i++) {
5412                 if ((abcdefgh) & (1 << i)) {
5413                     imm |= 0xffULL << (i * 8);
5414                 }
5415             }
5416         } else if (cmode_0) {
5417             if (is_neg) {
5418                 imm = (abcdefgh & 0x3f) << 48;
5419                 if (abcdefgh & 0x80) {
5420                     imm |= 0x8000000000000000ULL;
5421                 }
5422                 if (abcdefgh & 0x40) {
5423                     imm |= 0x3fc0000000000000ULL;
5424                 } else {
5425                     imm |= 0x4000000000000000ULL;
5426                 }
5427             } else {
5428                 imm = (abcdefgh & 0x3f) << 19;
5429                 if (abcdefgh & 0x80) {
5430                     imm |= 0x80000000;
5431                 }
5432                 if (abcdefgh & 0x40) {
5433                     imm |= 0x3e000000;
5434                 } else {
5435                     imm |= 0x40000000;
5436                 }
5437                 imm |= (imm << 32);
5438             }
5439         }
5440         break;
5441     }
5442
5443     if (cmode_3_1 != 7 && is_neg) {
5444         imm = ~imm;
5445     }
5446
5447     tcg_imm = tcg_const_i64(imm);
5448     tcg_rd = new_tmp_a64(s);
5449
5450     for (i = 0; i < 2; i++) {
5451         int foffs = i ? fp_reg_hi_offset(rd) : fp_reg_offset(rd, MO_64);
5452
5453         if (i == 1 && !is_q) {
5454             /* non-quad ops clear high half of vector */
5455             tcg_gen_movi_i64(tcg_rd, 0);
5456         } else if ((cmode & 0x9) == 0x1 || (cmode & 0xd) == 0x9) {
5457             tcg_gen_ld_i64(tcg_rd, cpu_env, foffs);
5458             if (is_neg) {
5459                 /* AND (BIC) */
5460                 tcg_gen_and_i64(tcg_rd, tcg_rd, tcg_imm);
5461             } else {
5462                 /* ORR */
5463                 tcg_gen_or_i64(tcg_rd, tcg_rd, tcg_imm);
5464             }
5465         } else {
5466             /* MOVI */
5467             tcg_gen_mov_i64(tcg_rd, tcg_imm);
5468         }
5469         tcg_gen_st_i64(tcg_rd, cpu_env, foffs);
5470     }
5471
5472     tcg_temp_free_i64(tcg_imm);
5473 }
5474
5475 /* C3.6.7 AdvSIMD scalar copy
5476  *  31 30  29  28             21 20  16 15  14  11 10  9    5 4    0
5477  * +-----+----+-----------------+------+---+------+---+------+------+
5478  * | 0 1 | op | 1 1 1 1 0 0 0 0 | imm5 | 0 | imm4 | 1 |  Rn  |  Rd  |
5479  * +-----+----+-----------------+------+---+------+---+------+------+
5480  */
5481 static void disas_simd_scalar_copy(DisasContext *s, uint32_t insn)
5482 {
5483     int rd = extract32(insn, 0, 5);
5484     int rn = extract32(insn, 5, 5);
5485     int imm4 = extract32(insn, 11, 4);
5486     int imm5 = extract32(insn, 16, 5);
5487     int op = extract32(insn, 29, 1);
5488
5489     if (op != 0 || imm4 != 0) {
5490         unallocated_encoding(s);
5491         return;
5492     }
5493
5494     /* DUP (element, scalar) */
5495     handle_simd_dupes(s, rd, rn, imm5);
5496 }
5497
5498 /* C3.6.8 AdvSIMD scalar pairwise
5499  *  31 30  29 28       24 23  22 21       17 16    12 11 10 9    5 4    0
5500  * +-----+---+-----------+------+-----------+--------+-----+------+------+
5501  * | 0 1 | U | 1 1 1 1 0 | size | 1 1 0 0 0 | opcode | 1 0 |  Rn  |  Rd  |
5502  * +-----+---+-----------+------+-----------+--------+-----+------+------+
5503  */
5504 static void disas_simd_scalar_pairwise(DisasContext *s, uint32_t insn)
5505 {
5506     int u = extract32(insn, 29, 1);
5507     int size = extract32(insn, 22, 2);
5508     int opcode = extract32(insn, 12, 5);
5509     int rn = extract32(insn, 5, 5);
5510     int rd = extract32(insn, 0, 5);
5511     TCGv_ptr fpst;
5512
5513     /* For some ops (the FP ones), size[1] is part of the encoding.
5514      * For ADDP strictly it is not but size[1] is always 1 for valid
5515      * encodings.
5516      */
5517     opcode |= (extract32(size, 1, 1) << 5);
5518
5519     switch (opcode) {
5520     case 0x3b: /* ADDP */
5521         if (u || size != 3) {
5522             unallocated_encoding(s);
5523             return;
5524         }
5525         TCGV_UNUSED_PTR(fpst);
5526         break;
5527     case 0xc: /* FMAXNMP */
5528     case 0xd: /* FADDP */
5529     case 0xf: /* FMAXP */
5530     case 0x2c: /* FMINNMP */
5531     case 0x2f: /* FMINP */
5532         /* FP op, size[0] is 32 or 64 bit */
5533         if (!u) {
5534             unallocated_encoding(s);
5535             return;
5536         }
5537         size = extract32(size, 0, 1) ? 3 : 2;
5538         fpst = get_fpstatus_ptr();
5539         break;
5540     default:
5541         unallocated_encoding(s);
5542         return;
5543     }
5544
5545     if (size == 3) {
5546         TCGv_i64 tcg_op1 = tcg_temp_new_i64();
5547         TCGv_i64 tcg_op2 = tcg_temp_new_i64();
5548         TCGv_i64 tcg_res = tcg_temp_new_i64();
5549
5550         read_vec_element(s, tcg_op1, rn, 0, MO_64);
5551         read_vec_element(s, tcg_op2, rn, 1, MO_64);
5552
5553         switch (opcode) {
5554         case 0x3b: /* ADDP */
5555             tcg_gen_add_i64(tcg_res, tcg_op1, tcg_op2);
5556             break;
5557         case 0xc: /* FMAXNMP */
5558             gen_helper_vfp_maxnumd(tcg_res, tcg_op1, tcg_op2, fpst);
5559             break;
5560         case 0xd: /* FADDP */
5561             gen_helper_vfp_addd(tcg_res, tcg_op1, tcg_op2, fpst);
5562             break;
5563         case 0xf: /* FMAXP */
5564             gen_helper_vfp_maxd(tcg_res, tcg_op1, tcg_op2, fpst);
5565             break;
5566         case 0x2c: /* FMINNMP */
5567             gen_helper_vfp_minnumd(tcg_res, tcg_op1, tcg_op2, fpst);
5568             break;
5569         case 0x2f: /* FMINP */
5570             gen_helper_vfp_mind(tcg_res, tcg_op1, tcg_op2, fpst);
5571             break;
5572         default:
5573             g_assert_not_reached();
5574         }
5575
5576         write_fp_dreg(s, rd, tcg_res);
5577
5578         tcg_temp_free_i64(tcg_op1);
5579         tcg_temp_free_i64(tcg_op2);
5580         tcg_temp_free_i64(tcg_res);
5581     } else {
5582         TCGv_i32 tcg_op1 = tcg_temp_new_i32();
5583         TCGv_i32 tcg_op2 = tcg_temp_new_i32();
5584         TCGv_i32 tcg_res = tcg_temp_new_i32();
5585
5586         read_vec_element_i32(s, tcg_op1, rn, 0, MO_32);
5587         read_vec_element_i32(s, tcg_op2, rn, 1, MO_32);
5588
5589         switch (opcode) {
5590         case 0xc: /* FMAXNMP */
5591             gen_helper_vfp_maxnums(tcg_res, tcg_op1, tcg_op2, fpst);
5592             break;
5593         case 0xd: /* FADDP */
5594             gen_helper_vfp_adds(tcg_res, tcg_op1, tcg_op2, fpst);
5595             break;
5596         case 0xf: /* FMAXP */
5597             gen_helper_vfp_maxs(tcg_res, tcg_op1, tcg_op2, fpst);
5598             break;
5599         case 0x2c: /* FMINNMP */
5600             gen_helper_vfp_minnums(tcg_res, tcg_op1, tcg_op2, fpst);
5601             break;
5602         case 0x2f: /* FMINP */
5603             gen_helper_vfp_mins(tcg_res, tcg_op1, tcg_op2, fpst);
5604             break;
5605         default:
5606             g_assert_not_reached();
5607         }
5608
5609         write_fp_sreg(s, rd, tcg_res);
5610
5611         tcg_temp_free_i32(tcg_op1);
5612         tcg_temp_free_i32(tcg_op2);
5613         tcg_temp_free_i32(tcg_res);
5614     }
5615
5616     if (!TCGV_IS_UNUSED_PTR(fpst)) {
5617         tcg_temp_free_ptr(fpst);
5618     }
5619 }
5620
5621 /*
5622  * Common SSHR[RA]/USHR[RA] - Shift right (optional rounding/accumulate)
5623  *
5624  * This code is handles the common shifting code and is used by both
5625  * the vector and scalar code.
5626  */
5627 static void handle_shri_with_rndacc(TCGv_i64 tcg_res, TCGv_i64 tcg_src,
5628                                     TCGv_i64 tcg_rnd, bool accumulate,
5629                                     bool is_u, int size, int shift)
5630 {
5631     bool extended_result = false;
5632     bool round = !TCGV_IS_UNUSED_I64(tcg_rnd);
5633     int ext_lshift = 0;
5634     TCGv_i64 tcg_src_hi;
5635
5636     if (round && size == 3) {
5637         extended_result = true;
5638         ext_lshift = 64 - shift;
5639         tcg_src_hi = tcg_temp_new_i64();
5640     } else if (shift == 64) {
5641         if (!accumulate && is_u) {
5642             /* result is zero */
5643             tcg_gen_movi_i64(tcg_res, 0);
5644             return;
5645         }
5646     }
5647
5648     /* Deal with the rounding step */
5649     if (round) {
5650         if (extended_result) {
5651             TCGv_i64 tcg_zero = tcg_const_i64(0);
5652             if (!is_u) {
5653                 /* take care of sign extending tcg_res */
5654                 tcg_gen_sari_i64(tcg_src_hi, tcg_src, 63);
5655                 tcg_gen_add2_i64(tcg_src, tcg_src_hi,
5656                                  tcg_src, tcg_src_hi,
5657                                  tcg_rnd, tcg_zero);
5658             } else {
5659                 tcg_gen_add2_i64(tcg_src, tcg_src_hi,
5660                                  tcg_src, tcg_zero,
5661                                  tcg_rnd, tcg_zero);
5662             }
5663             tcg_temp_free_i64(tcg_zero);
5664         } else {
5665             tcg_gen_add_i64(tcg_src, tcg_src, tcg_rnd);
5666         }
5667     }
5668
5669     /* Now do the shift right */
5670     if (round && extended_result) {
5671         /* extended case, >64 bit precision required */
5672         if (ext_lshift == 0) {
5673             /* special case, only high bits matter */
5674             tcg_gen_mov_i64(tcg_src, tcg_src_hi);
5675         } else {
5676             tcg_gen_shri_i64(tcg_src, tcg_src, shift);
5677             tcg_gen_shli_i64(tcg_src_hi, tcg_src_hi, ext_lshift);
5678             tcg_gen_or_i64(tcg_src, tcg_src, tcg_src_hi);
5679         }
5680     } else {
5681         if (is_u) {
5682             if (shift == 64) {
5683                 /* essentially shifting in 64 zeros */
5684                 tcg_gen_movi_i64(tcg_src, 0);
5685             } else {
5686                 tcg_gen_shri_i64(tcg_src, tcg_src, shift);
5687             }
5688         } else {
5689             if (shift == 64) {
5690                 /* effectively extending the sign-bit */
5691                 tcg_gen_sari_i64(tcg_src, tcg_src, 63);
5692             } else {
5693                 tcg_gen_sari_i64(tcg_src, tcg_src, shift);
5694             }
5695         }
5696     }
5697
5698     if (accumulate) {
5699         tcg_gen_add_i64(tcg_res, tcg_res, tcg_src);
5700     } else {
5701         tcg_gen_mov_i64(tcg_res, tcg_src);
5702     }
5703
5704     if (extended_result) {
5705         tcg_temp_free_i64(tcg_src_hi);
5706     }
5707 }
5708
5709 /* Common SHL/SLI - Shift left with an optional insert */
5710 static void handle_shli_with_ins(TCGv_i64 tcg_res, TCGv_i64 tcg_src,
5711                                  bool insert, int shift)
5712 {
5713     if (insert) { /* SLI */
5714         tcg_gen_deposit_i64(tcg_res, tcg_res, tcg_src, shift, 64 - shift);
5715     } else { /* SHL */
5716         tcg_gen_shli_i64(tcg_res, tcg_src, shift);
5717     }
5718 }
5719
5720 /* SSHR[RA]/USHR[RA] - Scalar shift right (optional rounding/accumulate) */
5721 static void handle_scalar_simd_shri(DisasContext *s,
5722                                     bool is_u, int immh, int immb,
5723                                     int opcode, int rn, int rd)
5724 {
5725     const int size = 3;
5726     int immhb = immh << 3 | immb;
5727     int shift = 2 * (8 << size) - immhb;
5728     bool accumulate = false;
5729     bool round = false;
5730     TCGv_i64 tcg_rn;
5731     TCGv_i64 tcg_rd;
5732     TCGv_i64 tcg_round;
5733
5734     if (!extract32(immh, 3, 1)) {
5735         unallocated_encoding(s);
5736         return;
5737     }
5738
5739     switch (opcode) {
5740     case 0x02: /* SSRA / USRA (accumulate) */
5741         accumulate = true;
5742         break;
5743     case 0x04: /* SRSHR / URSHR (rounding) */
5744         round = true;
5745         break;
5746     case 0x06: /* SRSRA / URSRA (accum + rounding) */
5747         accumulate = round = true;
5748         break;
5749     }
5750
5751     if (round) {
5752         uint64_t round_const = 1ULL << (shift - 1);
5753         tcg_round = tcg_const_i64(round_const);
5754     } else {
5755         TCGV_UNUSED_I64(tcg_round);
5756     }
5757
5758     tcg_rn = read_fp_dreg(s, rn);
5759     tcg_rd = accumulate ? read_fp_dreg(s, rd) : tcg_temp_new_i64();
5760
5761     handle_shri_with_rndacc(tcg_rd, tcg_rn, tcg_round,
5762                                accumulate, is_u, size, shift);
5763
5764     write_fp_dreg(s, rd, tcg_rd);
5765
5766     tcg_temp_free_i64(tcg_rn);
5767     tcg_temp_free_i64(tcg_rd);
5768     if (round) {
5769         tcg_temp_free_i64(tcg_round);
5770     }
5771 }
5772
5773 /* SHL/SLI - Scalar shift left */
5774 static void handle_scalar_simd_shli(DisasContext *s, bool insert,
5775                                     int immh, int immb, int opcode,
5776                                     int rn, int rd)
5777 {
5778     int size = 32 - clz32(immh) - 1;
5779     int immhb = immh << 3 | immb;
5780     int shift = immhb - (8 << size);
5781     TCGv_i64 tcg_rn = new_tmp_a64(s);
5782     TCGv_i64 tcg_rd = new_tmp_a64(s);
5783
5784     if (!extract32(immh, 3, 1)) {
5785         unallocated_encoding(s);
5786         return;
5787     }
5788
5789     tcg_rn = read_fp_dreg(s, rn);
5790     tcg_rd = insert ? read_fp_dreg(s, rd) : tcg_temp_new_i64();
5791
5792     handle_shli_with_ins(tcg_rd, tcg_rn, insert, shift);
5793
5794     write_fp_dreg(s, rd, tcg_rd);
5795
5796     tcg_temp_free_i64(tcg_rn);
5797     tcg_temp_free_i64(tcg_rd);
5798 }
5799
5800 /* C3.6.9 AdvSIMD scalar shift by immediate
5801  *  31 30  29 28         23 22  19 18  16 15    11  10 9    5 4    0
5802  * +-----+---+-------------+------+------+--------+---+------+------+
5803  * | 0 1 | U | 1 1 1 1 1 0 | immh | immb | opcode | 1 |  Rn  |  Rd  |
5804  * +-----+---+-------------+------+------+--------+---+------+------+
5805  *
5806  * This is the scalar version so it works on a fixed sized registers
5807  */
5808 static void disas_simd_scalar_shift_imm(DisasContext *s, uint32_t insn)
5809 {
5810     int rd = extract32(insn, 0, 5);
5811     int rn = extract32(insn, 5, 5);
5812     int opcode = extract32(insn, 11, 5);
5813     int immb = extract32(insn, 16, 3);
5814     int immh = extract32(insn, 19, 4);
5815     bool is_u = extract32(insn, 29, 1);
5816
5817     switch (opcode) {
5818     case 0x00: /* SSHR / USHR */
5819     case 0x02: /* SSRA / USRA */
5820     case 0x04: /* SRSHR / URSHR */
5821     case 0x06: /* SRSRA / URSRA */
5822         handle_scalar_simd_shri(s, is_u, immh, immb, opcode, rn, rd);
5823         break;
5824     case 0x0a: /* SHL / SLI */
5825         handle_scalar_simd_shli(s, is_u, immh, immb, opcode, rn, rd);
5826         break;
5827     default:
5828         unsupported_encoding(s, insn);
5829         break;
5830     }
5831 }
5832
5833 /* C3.6.10 AdvSIMD scalar three different
5834  *  31 30  29 28       24 23  22  21 20  16 15    12 11 10 9    5 4    0
5835  * +-----+---+-----------+------+---+------+--------+-----+------+------+
5836  * | 0 1 | U | 1 1 1 1 0 | size | 1 |  Rm  | opcode | 0 0 |  Rn  |  Rd  |
5837  * +-----+---+-----------+------+---+------+--------+-----+------+------+
5838  */
5839 static void disas_simd_scalar_three_reg_diff(DisasContext *s, uint32_t insn)
5840 {
5841     unsupported_encoding(s, insn);
5842 }
5843
5844 static void handle_3same_64(DisasContext *s, int opcode, bool u,
5845                             TCGv_i64 tcg_rd, TCGv_i64 tcg_rn, TCGv_i64 tcg_rm)
5846 {
5847     /* Handle 64x64->64 opcodes which are shared between the scalar
5848      * and vector 3-same groups. We cover every opcode where size == 3
5849      * is valid in either the three-reg-same (integer, not pairwise)
5850      * or scalar-three-reg-same groups. (Some opcodes are not yet
5851      * implemented.)
5852      */
5853     TCGCond cond;
5854
5855     switch (opcode) {
5856     case 0x1: /* SQADD */
5857         if (u) {
5858             gen_helper_neon_qadd_u64(tcg_rd, cpu_env, tcg_rn, tcg_rm);
5859         } else {
5860             gen_helper_neon_qadd_s64(tcg_rd, cpu_env, tcg_rn, tcg_rm);
5861         }
5862         break;
5863     case 0x5: /* SQSUB */
5864         if (u) {
5865             gen_helper_neon_qsub_u64(tcg_rd, cpu_env, tcg_rn, tcg_rm);
5866         } else {
5867             gen_helper_neon_qsub_s64(tcg_rd, cpu_env, tcg_rn, tcg_rm);
5868         }
5869         break;
5870     case 0x6: /* CMGT, CMHI */
5871         /* 64 bit integer comparison, result = test ? (2^64 - 1) : 0.
5872          * We implement this using setcond (test) and then negating.
5873          */
5874         cond = u ? TCG_COND_GTU : TCG_COND_GT;
5875     do_cmop:
5876         tcg_gen_setcond_i64(cond, tcg_rd, tcg_rn, tcg_rm);
5877         tcg_gen_neg_i64(tcg_rd, tcg_rd);
5878         break;
5879     case 0x7: /* CMGE, CMHS */
5880         cond = u ? TCG_COND_GEU : TCG_COND_GE;
5881         goto do_cmop;
5882     case 0x11: /* CMTST, CMEQ */
5883         if (u) {
5884             cond = TCG_COND_EQ;
5885             goto do_cmop;
5886         }
5887         /* CMTST : test is "if (X & Y != 0)". */
5888         tcg_gen_and_i64(tcg_rd, tcg_rn, tcg_rm);
5889         tcg_gen_setcondi_i64(TCG_COND_NE, tcg_rd, tcg_rd, 0);
5890         tcg_gen_neg_i64(tcg_rd, tcg_rd);
5891         break;
5892     case 0x8: /* SSHL, USHL */
5893         if (u) {
5894             gen_helper_neon_shl_u64(tcg_rd, tcg_rn, tcg_rm);
5895         } else {
5896             gen_helper_neon_shl_s64(tcg_rd, tcg_rn, tcg_rm);
5897         }
5898         break;
5899     case 0x9: /* SQSHL, UQSHL */
5900         if (u) {
5901             gen_helper_neon_qshl_u64(tcg_rd, cpu_env, tcg_rn, tcg_rm);
5902         } else {
5903             gen_helper_neon_qshl_s64(tcg_rd, cpu_env, tcg_rn, tcg_rm);
5904         }
5905         break;
5906     case 0xa: /* SRSHL, URSHL */
5907         if (u) {
5908             gen_helper_neon_rshl_u64(tcg_rd, tcg_rn, tcg_rm);
5909         } else {
5910             gen_helper_neon_rshl_s64(tcg_rd, tcg_rn, tcg_rm);
5911         }
5912         break;
5913     case 0xb: /* SQRSHL, UQRSHL */
5914         if (u) {
5915             gen_helper_neon_qrshl_u64(tcg_rd, cpu_env, tcg_rn, tcg_rm);
5916         } else {
5917             gen_helper_neon_qrshl_s64(tcg_rd, cpu_env, tcg_rn, tcg_rm);
5918         }
5919         break;
5920     case 0x10: /* ADD, SUB */
5921         if (u) {
5922             tcg_gen_sub_i64(tcg_rd, tcg_rn, tcg_rm);
5923         } else {
5924             tcg_gen_add_i64(tcg_rd, tcg_rn, tcg_rm);
5925         }
5926         break;
5927     default:
5928         g_assert_not_reached();
5929     }
5930 }
5931
5932 /* Handle the 3-same-operands float operations; shared by the scalar
5933  * and vector encodings. The caller must filter out any encodings
5934  * not allocated for the encoding it is dealing with.
5935  */
5936 static void handle_3same_float(DisasContext *s, int size, int elements,
5937                                int fpopcode, int rd, int rn, int rm)
5938 {
5939     int pass;
5940     TCGv_ptr fpst = get_fpstatus_ptr();
5941
5942     for (pass = 0; pass < elements; pass++) {
5943         if (size) {
5944             /* Double */
5945             TCGv_i64 tcg_op1 = tcg_temp_new_i64();
5946             TCGv_i64 tcg_op2 = tcg_temp_new_i64();
5947             TCGv_i64 tcg_res = tcg_temp_new_i64();
5948
5949             read_vec_element(s, tcg_op1, rn, pass, MO_64);
5950             read_vec_element(s, tcg_op2, rm, pass, MO_64);
5951
5952             switch (fpopcode) {
5953             case 0x18: /* FMAXNM */
5954                 gen_helper_vfp_maxnumd(tcg_res, tcg_op1, tcg_op2, fpst);
5955                 break;
5956             case 0x1a: /* FADD */
5957                 gen_helper_vfp_addd(tcg_res, tcg_op1, tcg_op2, fpst);
5958                 break;
5959             case 0x1e: /* FMAX */
5960                 gen_helper_vfp_maxd(tcg_res, tcg_op1, tcg_op2, fpst);
5961                 break;
5962             case 0x38: /* FMINNM */
5963                 gen_helper_vfp_minnumd(tcg_res, tcg_op1, tcg_op2, fpst);
5964                 break;
5965             case 0x3a: /* FSUB */
5966                 gen_helper_vfp_subd(tcg_res, tcg_op1, tcg_op2, fpst);
5967                 break;
5968             case 0x3e: /* FMIN */
5969                 gen_helper_vfp_mind(tcg_res, tcg_op1, tcg_op2, fpst);
5970                 break;
5971             case 0x5b: /* FMUL */
5972                 gen_helper_vfp_muld(tcg_res, tcg_op1, tcg_op2, fpst);
5973                 break;
5974             case 0x5f: /* FDIV */
5975                 gen_helper_vfp_divd(tcg_res, tcg_op1, tcg_op2, fpst);
5976                 break;
5977             case 0x7a: /* FABD */
5978                 gen_helper_vfp_subd(tcg_res, tcg_op1, tcg_op2, fpst);
5979                 gen_helper_vfp_absd(tcg_res, tcg_res);
5980                 break;
5981             default:
5982                 g_assert_not_reached();
5983             }
5984
5985             write_vec_element(s, tcg_res, rd, pass, MO_64);
5986
5987             tcg_temp_free_i64(tcg_res);
5988             tcg_temp_free_i64(tcg_op1);
5989             tcg_temp_free_i64(tcg_op2);
5990         } else {
5991             /* Single */
5992             TCGv_i32 tcg_op1 = tcg_temp_new_i32();
5993             TCGv_i32 tcg_op2 = tcg_temp_new_i32();
5994             TCGv_i32 tcg_res = tcg_temp_new_i32();
5995
5996             read_vec_element_i32(s, tcg_op1, rn, pass, MO_32);
5997             read_vec_element_i32(s, tcg_op2, rm, pass, MO_32);
5998
5999             switch (fpopcode) {
6000             case 0x1a: /* FADD */
6001                 gen_helper_vfp_adds(tcg_res, tcg_op1, tcg_op2, fpst);
6002                 break;
6003             case 0x1e: /* FMAX */
6004                 gen_helper_vfp_maxs(tcg_res, tcg_op1, tcg_op2, fpst);
6005                 break;
6006             case 0x18: /* FMAXNM */
6007                 gen_helper_vfp_maxnums(tcg_res, tcg_op1, tcg_op2, fpst);
6008                 break;
6009             case 0x38: /* FMINNM */
6010                 gen_helper_vfp_minnums(tcg_res, tcg_op1, tcg_op2, fpst);
6011                 break;
6012             case 0x3a: /* FSUB */
6013                 gen_helper_vfp_subs(tcg_res, tcg_op1, tcg_op2, fpst);
6014                 break;
6015             case 0x3e: /* FMIN */
6016                 gen_helper_vfp_mins(tcg_res, tcg_op1, tcg_op2, fpst);
6017                 break;
6018             case 0x5b: /* FMUL */
6019                 gen_helper_vfp_muls(tcg_res, tcg_op1, tcg_op2, fpst);
6020                 break;
6021             case 0x5f: /* FDIV */
6022                 gen_helper_vfp_divs(tcg_res, tcg_op1, tcg_op2, fpst);
6023                 break;
6024             case 0x7a: /* FABD */
6025                 gen_helper_vfp_subs(tcg_res, tcg_op1, tcg_op2, fpst);
6026                 gen_helper_vfp_abss(tcg_res, tcg_res);
6027                 break;
6028             default:
6029                 g_assert_not_reached();
6030             }
6031
6032             if (elements == 1) {
6033                 /* scalar single so clear high part */
6034                 TCGv_i64 tcg_tmp = tcg_temp_new_i64();
6035
6036                 tcg_gen_extu_i32_i64(tcg_tmp, tcg_res);
6037                 write_vec_element(s, tcg_tmp, rd, pass, MO_64);
6038                 tcg_temp_free_i64(tcg_tmp);
6039             } else {
6040                 write_vec_element_i32(s, tcg_res, rd, pass, MO_32);
6041             }
6042
6043             tcg_temp_free_i32(tcg_res);
6044             tcg_temp_free_i32(tcg_op1);
6045             tcg_temp_free_i32(tcg_op2);
6046         }
6047     }
6048
6049     tcg_temp_free_ptr(fpst);
6050
6051     if ((elements << size) < 4) {
6052         /* scalar, or non-quad vector op */
6053         clear_vec_high(s, rd);
6054     }
6055 }
6056
6057 /* C3.6.11 AdvSIMD scalar three same
6058  *  31 30  29 28       24 23  22  21 20  16 15    11  10 9    5 4    0
6059  * +-----+---+-----------+------+---+------+--------+---+------+------+
6060  * | 0 1 | U | 1 1 1 1 0 | size | 1 |  Rm  | opcode | 1 |  Rn  |  Rd  |
6061  * +-----+---+-----------+------+---+------+--------+---+------+------+
6062  */
6063 static void disas_simd_scalar_three_reg_same(DisasContext *s, uint32_t insn)
6064 {
6065     int rd = extract32(insn, 0, 5);
6066     int rn = extract32(insn, 5, 5);
6067     int opcode = extract32(insn, 11, 5);
6068     int rm = extract32(insn, 16, 5);
6069     int size = extract32(insn, 22, 2);
6070     bool u = extract32(insn, 29, 1);
6071     TCGv_i64 tcg_rd;
6072
6073     if (opcode >= 0x18) {
6074         /* Floating point: U, size[1] and opcode indicate operation */
6075         int fpopcode = opcode | (extract32(size, 1, 1) << 5) | (u << 6);
6076         switch (fpopcode) {
6077         case 0x1b: /* FMULX */
6078         case 0x1c: /* FCMEQ */
6079         case 0x1f: /* FRECPS */
6080         case 0x3f: /* FRSQRTS */
6081         case 0x5c: /* FCMGE */
6082         case 0x5d: /* FACGE */
6083         case 0x7c: /* FCMGT */
6084         case 0x7d: /* FACGT */
6085             unsupported_encoding(s, insn);
6086             return;
6087         case 0x7a: /* FABD */
6088             break;
6089         default:
6090             unallocated_encoding(s);
6091             return;
6092         }
6093
6094         handle_3same_float(s, extract32(size, 0, 1), 1, fpopcode, rd, rn, rm);
6095         return;
6096     }
6097
6098     switch (opcode) {
6099     case 0x1: /* SQADD, UQADD */
6100     case 0x5: /* SQSUB, UQSUB */
6101     case 0x9: /* SQSHL, UQSHL */
6102     case 0xb: /* SQRSHL, UQRSHL */
6103         break;
6104     case 0x8: /* SSHL, USHL */
6105     case 0xa: /* SRSHL, URSHL */
6106     case 0x6: /* CMGT, CMHI */
6107     case 0x7: /* CMGE, CMHS */
6108     case 0x11: /* CMTST, CMEQ */
6109     case 0x10: /* ADD, SUB (vector) */
6110         if (size != 3) {
6111             unallocated_encoding(s);
6112             return;
6113         }
6114         break;
6115     case 0x16: /* SQDMULH, SQRDMULH (vector) */
6116         if (size != 1 && size != 2) {
6117             unallocated_encoding(s);
6118             return;
6119         }
6120         break;
6121     default:
6122         unallocated_encoding(s);
6123         return;
6124     }
6125
6126     tcg_rd = tcg_temp_new_i64();
6127
6128     if (size == 3) {
6129         TCGv_i64 tcg_rn = read_fp_dreg(s, rn);
6130         TCGv_i64 tcg_rm = read_fp_dreg(s, rm);
6131
6132         handle_3same_64(s, opcode, u, tcg_rd, tcg_rn, tcg_rm);
6133         tcg_temp_free_i64(tcg_rn);
6134         tcg_temp_free_i64(tcg_rm);
6135     } else {
6136         /* Do a single operation on the lowest element in the vector.
6137          * We use the standard Neon helpers and rely on 0 OP 0 == 0 with
6138          * no side effects for all these operations.
6139          * OPTME: special-purpose helpers would avoid doing some
6140          * unnecessary work in the helper for the 8 and 16 bit cases.
6141          */
6142         NeonGenTwoOpEnvFn *genenvfn;
6143         TCGv_i32 tcg_rn = tcg_temp_new_i32();
6144         TCGv_i32 tcg_rm = tcg_temp_new_i32();
6145         TCGv_i32 tcg_rd32 = tcg_temp_new_i32();
6146
6147         read_vec_element_i32(s, tcg_rn, rn, 0, size);
6148         read_vec_element_i32(s, tcg_rm, rm, 0, size);
6149
6150         switch (opcode) {
6151         case 0x1: /* SQADD, UQADD */
6152         {
6153             static NeonGenTwoOpEnvFn * const fns[3][2] = {
6154                 { gen_helper_neon_qadd_s8, gen_helper_neon_qadd_u8 },
6155                 { gen_helper_neon_qadd_s16, gen_helper_neon_qadd_u16 },
6156                 { gen_helper_neon_qadd_s32, gen_helper_neon_qadd_u32 },
6157             };
6158             genenvfn = fns[size][u];
6159             break;
6160         }
6161         case 0x5: /* SQSUB, UQSUB */
6162         {
6163             static NeonGenTwoOpEnvFn * const fns[3][2] = {
6164                 { gen_helper_neon_qsub_s8, gen_helper_neon_qsub_u8 },
6165                 { gen_helper_neon_qsub_s16, gen_helper_neon_qsub_u16 },
6166                 { gen_helper_neon_qsub_s32, gen_helper_neon_qsub_u32 },
6167             };
6168             genenvfn = fns[size][u];
6169             break;
6170         }
6171         case 0x9: /* SQSHL, UQSHL */
6172         {
6173             static NeonGenTwoOpEnvFn * const fns[3][2] = {
6174                 { gen_helper_neon_qshl_s8, gen_helper_neon_qshl_u8 },
6175                 { gen_helper_neon_qshl_s16, gen_helper_neon_qshl_u16 },
6176                 { gen_helper_neon_qshl_s32, gen_helper_neon_qshl_u32 },
6177             };
6178             genenvfn = fns[size][u];
6179             break;
6180         }
6181         case 0xb: /* SQRSHL, UQRSHL */
6182         {
6183             static NeonGenTwoOpEnvFn * const fns[3][2] = {
6184                 { gen_helper_neon_qrshl_s8, gen_helper_neon_qrshl_u8 },
6185                 { gen_helper_neon_qrshl_s16, gen_helper_neon_qrshl_u16 },
6186                 { gen_helper_neon_qrshl_s32, gen_helper_neon_qrshl_u32 },
6187             };
6188             genenvfn = fns[size][u];
6189             break;
6190         }
6191         case 0x16: /* SQDMULH, SQRDMULH */
6192         {
6193             static NeonGenTwoOpEnvFn * const fns[2][2] = {
6194                 { gen_helper_neon_qdmulh_s16, gen_helper_neon_qrdmulh_s16 },
6195                 { gen_helper_neon_qdmulh_s32, gen_helper_neon_qrdmulh_s32 },
6196             };
6197             assert(size == 1 || size == 2);
6198             genenvfn = fns[size - 1][u];
6199             break;
6200         }
6201         default:
6202             g_assert_not_reached();
6203         }
6204
6205         genenvfn(tcg_rd32, cpu_env, tcg_rn, tcg_rm);
6206         tcg_gen_extu_i32_i64(tcg_rd, tcg_rd32);
6207         tcg_temp_free_i32(tcg_rd32);
6208         tcg_temp_free_i32(tcg_rn);
6209         tcg_temp_free_i32(tcg_rm);
6210     }
6211
6212     write_fp_dreg(s, rd, tcg_rd);
6213
6214     tcg_temp_free_i64(tcg_rd);
6215 }
6216
6217 static void handle_2misc_64(DisasContext *s, int opcode, bool u,
6218                             TCGv_i64 tcg_rd, TCGv_i64 tcg_rn)
6219 {
6220     /* Handle 64->64 opcodes which are shared between the scalar and
6221      * vector 2-reg-misc groups. We cover every integer opcode where size == 3
6222      * is valid in either group and also the double-precision fp ops.
6223      */
6224     TCGCond cond;
6225
6226     switch (opcode) {
6227     case 0x5: /* NOT */
6228         /* This opcode is shared with CNT and RBIT but we have earlier
6229          * enforced that size == 3 if and only if this is the NOT insn.
6230          */
6231         tcg_gen_not_i64(tcg_rd, tcg_rn);
6232         break;
6233     case 0xa: /* CMLT */
6234         /* 64 bit integer comparison against zero, result is
6235          * test ? (2^64 - 1) : 0. We implement via setcond(!test) and
6236          * subtracting 1.
6237          */
6238         cond = TCG_COND_LT;
6239     do_cmop:
6240         tcg_gen_setcondi_i64(cond, tcg_rd, tcg_rn, 0);
6241         tcg_gen_neg_i64(tcg_rd, tcg_rd);
6242         break;
6243     case 0x8: /* CMGT, CMGE */
6244         cond = u ? TCG_COND_GE : TCG_COND_GT;
6245         goto do_cmop;
6246     case 0x9: /* CMEQ, CMLE */
6247         cond = u ? TCG_COND_LE : TCG_COND_EQ;
6248         goto do_cmop;
6249     case 0xb: /* ABS, NEG */
6250         if (u) {
6251             tcg_gen_neg_i64(tcg_rd, tcg_rn);
6252         } else {
6253             TCGv_i64 tcg_zero = tcg_const_i64(0);
6254             tcg_gen_neg_i64(tcg_rd, tcg_rn);
6255             tcg_gen_movcond_i64(TCG_COND_GT, tcg_rd, tcg_rn, tcg_zero,
6256                                 tcg_rn, tcg_rd);
6257             tcg_temp_free_i64(tcg_zero);
6258         }
6259         break;
6260     case 0x2f: /* FABS */
6261         gen_helper_vfp_absd(tcg_rd, tcg_rn);
6262         break;
6263     case 0x6f: /* FNEG */
6264         gen_helper_vfp_negd(tcg_rd, tcg_rn);
6265         break;
6266     default:
6267         g_assert_not_reached();
6268     }
6269 }
6270
6271 /* C3.6.12 AdvSIMD scalar two reg misc
6272  *  31 30  29 28       24 23  22 21       17 16    12 11 10 9    5 4    0
6273  * +-----+---+-----------+------+-----------+--------+-----+------+------+
6274  * | 0 1 | U | 1 1 1 1 0 | size | 1 0 0 0 0 | opcode | 1 0 |  Rn  |  Rd  |
6275  * +-----+---+-----------+------+-----------+--------+-----+------+------+
6276  */
6277 static void disas_simd_scalar_two_reg_misc(DisasContext *s, uint32_t insn)
6278 {
6279     int rd = extract32(insn, 0, 5);
6280     int rn = extract32(insn, 5, 5);
6281     int opcode = extract32(insn, 12, 5);
6282     int size = extract32(insn, 22, 2);
6283     bool u = extract32(insn, 29, 1);
6284
6285     switch (opcode) {
6286     case 0xa: /* CMLT */
6287         if (u) {
6288             unallocated_encoding(s);
6289             return;
6290         }
6291         /* fall through */
6292     case 0x8: /* CMGT, CMGE */
6293     case 0x9: /* CMEQ, CMLE */
6294     case 0xb: /* ABS, NEG */
6295         if (size != 3) {
6296             unallocated_encoding(s);
6297             return;
6298         }
6299         break;
6300     default:
6301         /* Other categories of encoding in this class:
6302          *  + floating point (single and double)
6303          *  + SUQADD/USQADD/SQABS/SQNEG : size 8, 16, 32 or 64
6304          *  + SQXTN/SQXTN2/SQXTUN/SQXTUN2/UQXTN/UQXTN2:
6305          *    narrowing saturate ops: size 64/32/16 -> 32/16/8
6306          */
6307         unsupported_encoding(s, insn);
6308         return;
6309     }
6310
6311     if (size == 3) {
6312         TCGv_i64 tcg_rn = read_fp_dreg(s, rn);
6313         TCGv_i64 tcg_rd = tcg_temp_new_i64();
6314
6315         handle_2misc_64(s, opcode, u, tcg_rd, tcg_rn);
6316         write_fp_dreg(s, rd, tcg_rd);
6317         tcg_temp_free_i64(tcg_rd);
6318         tcg_temp_free_i64(tcg_rn);
6319     } else {
6320         /* the 'size might not be 64' ops aren't implemented yet */
6321         g_assert_not_reached();
6322     }
6323 }
6324
6325 /* SSHR[RA]/USHR[RA] - Vector shift right (optional rounding/accumulate) */
6326 static void handle_vec_simd_shri(DisasContext *s, bool is_q, bool is_u,
6327                                  int immh, int immb, int opcode, int rn, int rd)
6328 {
6329     int size = 32 - clz32(immh) - 1;
6330     int immhb = immh << 3 | immb;
6331     int shift = 2 * (8 << size) - immhb;
6332     bool accumulate = false;
6333     bool round = false;
6334     int dsize = is_q ? 128 : 64;
6335     int esize = 8 << size;
6336     int elements = dsize/esize;
6337     TCGMemOp memop = size | (is_u ? 0 : MO_SIGN);
6338     TCGv_i64 tcg_rn = new_tmp_a64(s);
6339     TCGv_i64 tcg_rd = new_tmp_a64(s);
6340     TCGv_i64 tcg_round;
6341     int i;
6342
6343     if (extract32(immh, 3, 1) && !is_q) {
6344         unallocated_encoding(s);
6345         return;
6346     }
6347
6348     if (size > 3 && !is_q) {
6349         unallocated_encoding(s);
6350         return;
6351     }
6352
6353     switch (opcode) {
6354     case 0x02: /* SSRA / USRA (accumulate) */
6355         accumulate = true;
6356         break;
6357     case 0x04: /* SRSHR / URSHR (rounding) */
6358         round = true;
6359         break;
6360     case 0x06: /* SRSRA / URSRA (accum + rounding) */
6361         accumulate = round = true;
6362         break;
6363     }
6364
6365     if (round) {
6366         uint64_t round_const = 1ULL << (shift - 1);
6367         tcg_round = tcg_const_i64(round_const);
6368     } else {
6369         TCGV_UNUSED_I64(tcg_round);
6370     }
6371
6372     for (i = 0; i < elements; i++) {
6373         read_vec_element(s, tcg_rn, rn, i, memop);
6374         if (accumulate) {
6375             read_vec_element(s, tcg_rd, rd, i, memop);
6376         }
6377
6378         handle_shri_with_rndacc(tcg_rd, tcg_rn, tcg_round,
6379                                 accumulate, is_u, size, shift);
6380
6381         write_vec_element(s, tcg_rd, rd, i, size);
6382     }
6383
6384     if (!is_q) {
6385         clear_vec_high(s, rd);
6386     }
6387
6388     if (round) {
6389         tcg_temp_free_i64(tcg_round);
6390     }
6391 }
6392
6393 /* SHL/SLI - Vector shift left */
6394 static void handle_vec_simd_shli(DisasContext *s, bool is_q, bool insert,
6395                                 int immh, int immb, int opcode, int rn, int rd)
6396 {
6397     int size = 32 - clz32(immh) - 1;
6398     int immhb = immh << 3 | immb;
6399     int shift = immhb - (8 << size);
6400     int dsize = is_q ? 128 : 64;
6401     int esize = 8 << size;
6402     int elements = dsize/esize;
6403     TCGv_i64 tcg_rn = new_tmp_a64(s);
6404     TCGv_i64 tcg_rd = new_tmp_a64(s);
6405     int i;
6406
6407     if (extract32(immh, 3, 1) && !is_q) {
6408         unallocated_encoding(s);
6409         return;
6410     }
6411
6412     if (size > 3 && !is_q) {
6413         unallocated_encoding(s);
6414         return;
6415     }
6416
6417     for (i = 0; i < elements; i++) {
6418         read_vec_element(s, tcg_rn, rn, i, size);
6419         if (insert) {
6420             read_vec_element(s, tcg_rd, rd, i, size);
6421         }
6422
6423         handle_shli_with_ins(tcg_rd, tcg_rn, insert, shift);
6424
6425         write_vec_element(s, tcg_rd, rd, i, size);
6426     }
6427
6428     if (!is_q) {
6429         clear_vec_high(s, rd);
6430     }
6431 }
6432
6433 /* USHLL/SHLL - Vector shift left with widening */
6434 static void handle_vec_simd_wshli(DisasContext *s, bool is_q, bool is_u,
6435                                  int immh, int immb, int opcode, int rn, int rd)
6436 {
6437     int size = 32 - clz32(immh) - 1;
6438     int immhb = immh << 3 | immb;
6439     int shift = immhb - (8 << size);
6440     int dsize = 64;
6441     int esize = 8 << size;
6442     int elements = dsize/esize;
6443     TCGv_i64 tcg_rn = new_tmp_a64(s);
6444     TCGv_i64 tcg_rd = new_tmp_a64(s);
6445     int i;
6446
6447     if (size >= 3) {
6448         unallocated_encoding(s);
6449         return;
6450     }
6451
6452     /* For the LL variants the store is larger than the load,
6453      * so if rd == rn we would overwrite parts of our input.
6454      * So load everything right now and use shifts in the main loop.
6455      */
6456     read_vec_element(s, tcg_rn, rn, is_q ? 1 : 0, MO_64);
6457
6458     for (i = 0; i < elements; i++) {
6459         tcg_gen_shri_i64(tcg_rd, tcg_rn, i * esize);
6460         ext_and_shift_reg(tcg_rd, tcg_rd, size | (!is_u << 2), 0);
6461         tcg_gen_shli_i64(tcg_rd, tcg_rd, shift);
6462         write_vec_element(s, tcg_rd, rd, i, size + 1);
6463     }
6464 }
6465
6466
6467 /* C3.6.14 AdvSIMD shift by immediate
6468  *  31  30   29 28         23 22  19 18  16 15    11  10 9    5 4    0
6469  * +---+---+---+-------------+------+------+--------+---+------+------+
6470  * | 0 | Q | U | 0 1 1 1 1 0 | immh | immb | opcode | 1 |  Rn  |  Rd  |
6471  * +---+---+---+-------------+------+------+--------+---+------+------+
6472  */
6473 static void disas_simd_shift_imm(DisasContext *s, uint32_t insn)
6474 {
6475     int rd = extract32(insn, 0, 5);
6476     int rn = extract32(insn, 5, 5);
6477     int opcode = extract32(insn, 11, 5);
6478     int immb = extract32(insn, 16, 3);
6479     int immh = extract32(insn, 19, 4);
6480     bool is_u = extract32(insn, 29, 1);
6481     bool is_q = extract32(insn, 30, 1);
6482
6483     switch (opcode) {
6484     case 0x00: /* SSHR / USHR */
6485     case 0x02: /* SSRA / USRA (accumulate) */
6486     case 0x04: /* SRSHR / URSHR (rounding) */
6487     case 0x06: /* SRSRA / URSRA (accum + rounding) */
6488         handle_vec_simd_shri(s, is_q, is_u, immh, immb, opcode, rn, rd);
6489         break;
6490     case 0x0a: /* SHL / SLI */
6491         handle_vec_simd_shli(s, is_q, is_u, immh, immb, opcode, rn, rd);
6492         break;
6493     case 0x14: /* SSHLL / USHLL */
6494         handle_vec_simd_wshli(s, is_q, is_u, immh, immb, opcode, rn, rd);
6495         break;
6496     default:
6497         /* We don't currently implement any of the Narrow or saturating shifts;
6498          * nor do we implement the fixed-point conversions in this
6499          * encoding group (SCVTF, FCVTZS, UCVTF, FCVTZU).
6500          */
6501         unsupported_encoding(s, insn);
6502         return;
6503     }
6504 }
6505
6506 static void handle_3rd_widening(DisasContext *s, int is_q, int is_u, int size,
6507                                 int opcode, int rd, int rn, int rm)
6508 {
6509     /* 3-reg-different widening insns: 64 x 64 -> 128 */
6510     TCGv_i64 tcg_res[2];
6511     int pass, accop;
6512
6513     tcg_res[0] = tcg_temp_new_i64();
6514     tcg_res[1] = tcg_temp_new_i64();
6515
6516     /* Does this op do an adding accumulate, a subtracting accumulate,
6517      * or no accumulate at all?
6518      */
6519     switch (opcode) {
6520     case 5:
6521     case 8:
6522     case 9:
6523         accop = 1;
6524         break;
6525     case 10:
6526     case 11:
6527         accop = -1;
6528         break;
6529     default:
6530         accop = 0;
6531         break;
6532     }
6533
6534     if (accop != 0) {
6535         read_vec_element(s, tcg_res[0], rd, 0, MO_64);
6536         read_vec_element(s, tcg_res[1], rd, 1, MO_64);
6537     }
6538
6539     /* size == 2 means two 32x32->64 operations; this is worth special
6540      * casing because we can generally handle it inline.
6541      */
6542     if (size == 2) {
6543         for (pass = 0; pass < 2; pass++) {
6544             TCGv_i64 tcg_op1 = tcg_temp_new_i64();
6545             TCGv_i64 tcg_op2 = tcg_temp_new_i64();
6546             TCGv_i64 tcg_passres;
6547             TCGMemOp memop = MO_32 | (is_u ? 0 : MO_SIGN);
6548
6549             int elt = pass + is_q * 2;
6550
6551             read_vec_element(s, tcg_op1, rn, elt, memop);
6552             read_vec_element(s, tcg_op2, rm, elt, memop);
6553
6554             if (accop == 0) {
6555                 tcg_passres = tcg_res[pass];
6556             } else {
6557                 tcg_passres = tcg_temp_new_i64();
6558             }
6559
6560             switch (opcode) {
6561             case 5: /* SABAL, SABAL2, UABAL, UABAL2 */
6562             case 7: /* SABDL, SABDL2, UABDL, UABDL2 */
6563             {
6564                 TCGv_i64 tcg_tmp1 = tcg_temp_new_i64();
6565                 TCGv_i64 tcg_tmp2 = tcg_temp_new_i64();
6566
6567                 tcg_gen_sub_i64(tcg_tmp1, tcg_op1, tcg_op2);
6568                 tcg_gen_sub_i64(tcg_tmp2, tcg_op2, tcg_op1);
6569                 tcg_gen_movcond_i64(is_u ? TCG_COND_GEU : TCG_COND_GE,
6570                                     tcg_passres,
6571                                     tcg_op1, tcg_op2, tcg_tmp1, tcg_tmp2);
6572                 tcg_temp_free_i64(tcg_tmp1);
6573                 tcg_temp_free_i64(tcg_tmp2);
6574                 break;
6575             }
6576             case 8: /* SMLAL, SMLAL2, UMLAL, UMLAL2 */
6577             case 10: /* SMLSL, SMLSL2, UMLSL, UMLSL2 */
6578             case 12: /* UMULL, UMULL2, SMULL, SMULL2 */
6579                 tcg_gen_mul_i64(tcg_passres, tcg_op1, tcg_op2);
6580                 break;
6581             default:
6582                 g_assert_not_reached();
6583             }
6584
6585             if (accop > 0) {
6586                 tcg_gen_add_i64(tcg_res[pass], tcg_res[pass], tcg_passres);
6587                 tcg_temp_free_i64(tcg_passres);
6588             } else if (accop < 0) {
6589                 tcg_gen_sub_i64(tcg_res[pass], tcg_res[pass], tcg_passres);
6590                 tcg_temp_free_i64(tcg_passres);
6591             }
6592
6593             tcg_temp_free_i64(tcg_op1);
6594             tcg_temp_free_i64(tcg_op2);
6595         }
6596     } else {
6597         /* size 0 or 1, generally helper functions */
6598         for (pass = 0; pass < 2; pass++) {
6599             TCGv_i32 tcg_op1 = tcg_temp_new_i32();
6600             TCGv_i32 tcg_op2 = tcg_temp_new_i32();
6601             TCGv_i64 tcg_passres;
6602             int elt = pass + is_q * 2;
6603
6604             read_vec_element_i32(s, tcg_op1, rn, elt, MO_32);
6605             read_vec_element_i32(s, tcg_op2, rm, elt, MO_32);
6606
6607             if (accop == 0) {
6608                 tcg_passres = tcg_res[pass];
6609             } else {
6610                 tcg_passres = tcg_temp_new_i64();
6611             }
6612
6613             switch (opcode) {
6614             case 5: /* SABAL, SABAL2, UABAL, UABAL2 */
6615             case 7: /* SABDL, SABDL2, UABDL, UABDL2 */
6616                 if (size == 0) {
6617                     if (is_u) {
6618                         gen_helper_neon_abdl_u16(tcg_passres, tcg_op1, tcg_op2);
6619                     } else {
6620                         gen_helper_neon_abdl_s16(tcg_passres, tcg_op1, tcg_op2);
6621                     }
6622                 } else {
6623                     if (is_u) {
6624                         gen_helper_neon_abdl_u32(tcg_passres, tcg_op1, tcg_op2);
6625                     } else {
6626                         gen_helper_neon_abdl_s32(tcg_passres, tcg_op1, tcg_op2);
6627                     }
6628                 }
6629                 break;
6630             case 8: /* SMLAL, SMLAL2, UMLAL, UMLAL2 */
6631             case 10: /* SMLSL, SMLSL2, UMLSL, UMLSL2 */
6632             case 12: /* UMULL, UMULL2, SMULL, SMULL2 */
6633                 if (size == 0) {
6634                     if (is_u) {
6635                         gen_helper_neon_mull_u8(tcg_passres, tcg_op1, tcg_op2);
6636                     } else {
6637                         gen_helper_neon_mull_s8(tcg_passres, tcg_op1, tcg_op2);
6638                     }
6639                 } else {
6640                     if (is_u) {
6641                         gen_helper_neon_mull_u16(tcg_passres, tcg_op1, tcg_op2);
6642                     } else {
6643                         gen_helper_neon_mull_s16(tcg_passres, tcg_op1, tcg_op2);
6644                     }
6645                 }
6646                 break;
6647             default:
6648                 g_assert_not_reached();
6649             }
6650             tcg_temp_free_i32(tcg_op1);
6651             tcg_temp_free_i32(tcg_op2);
6652
6653             if (accop > 0) {
6654                 if (size == 0) {
6655                     gen_helper_neon_addl_u16(tcg_res[pass], tcg_res[pass],
6656                                              tcg_passres);
6657                 } else {
6658                     gen_helper_neon_addl_u32(tcg_res[pass], tcg_res[pass],
6659                                              tcg_passres);
6660                 }
6661                 tcg_temp_free_i64(tcg_passres);
6662             } else if (accop < 0) {
6663                 if (size == 0) {
6664                     gen_helper_neon_subl_u16(tcg_res[pass], tcg_res[pass],
6665                                              tcg_passres);
6666                 } else {
6667                     gen_helper_neon_subl_u32(tcg_res[pass], tcg_res[pass],
6668                                              tcg_passres);
6669                 }
6670                 tcg_temp_free_i64(tcg_passres);
6671             }
6672         }
6673     }
6674
6675     write_vec_element(s, tcg_res[0], rd, 0, MO_64);
6676     write_vec_element(s, tcg_res[1], rd, 1, MO_64);
6677     tcg_temp_free_i64(tcg_res[0]);
6678     tcg_temp_free_i64(tcg_res[1]);
6679 }
6680
6681 /* C3.6.15 AdvSIMD three different
6682  *   31  30  29 28       24 23  22  21 20  16 15    12 11 10 9    5 4    0
6683  * +---+---+---+-----------+------+---+------+--------+-----+------+------+
6684  * | 0 | Q | U | 0 1 1 1 0 | size | 1 |  Rm  | opcode | 0 0 |  Rn  |  Rd  |
6685  * +---+---+---+-----------+------+---+------+--------+-----+------+------+
6686  */
6687 static void disas_simd_three_reg_diff(DisasContext *s, uint32_t insn)
6688 {
6689     /* Instructions in this group fall into three basic classes
6690      * (in each case with the operation working on each element in
6691      * the input vectors):
6692      * (1) widening 64 x 64 -> 128 (with possibly Vd as an extra
6693      *     128 bit input)
6694      * (2) wide 64 x 128 -> 128
6695      * (3) narrowing 128 x 128 -> 64
6696      * Here we do initial decode, catch unallocated cases and
6697      * dispatch to separate functions for each class.
6698      */
6699     int is_q = extract32(insn, 30, 1);
6700     int is_u = extract32(insn, 29, 1);
6701     int size = extract32(insn, 22, 2);
6702     int opcode = extract32(insn, 12, 4);
6703     int rm = extract32(insn, 16, 5);
6704     int rn = extract32(insn, 5, 5);
6705     int rd = extract32(insn, 0, 5);
6706
6707     switch (opcode) {
6708     case 1: /* SADDW, SADDW2, UADDW, UADDW2 */
6709     case 3: /* SSUBW, SSUBW2, USUBW, USUBW2 */
6710         /* 64 x 128 -> 128 */
6711         unsupported_encoding(s, insn);
6712         break;
6713     case 4: /* ADDHN, ADDHN2, RADDHN, RADDHN2 */
6714     case 6: /* SUBHN, SUBHN2, RSUBHN, RSUBHN2 */
6715         /* 128 x 128 -> 64 */
6716         unsupported_encoding(s, insn);
6717         break;
6718     case 9:
6719     case 11:
6720     case 13:
6721     case 14:
6722         if (is_u) {
6723             unallocated_encoding(s);
6724             return;
6725         }
6726         /* fall through */
6727     case 0:
6728     case 2:
6729         unsupported_encoding(s, insn);
6730         break;
6731     case 5:
6732     case 7:
6733     case 8:
6734     case 10:
6735     case 12:
6736         /* 64 x 64 -> 128 */
6737         if (size == 3) {
6738             unallocated_encoding(s);
6739             return;
6740         }
6741         handle_3rd_widening(s, is_q, is_u, size, opcode, rd, rn, rm);
6742         break;
6743     default:
6744         /* opcode 15 not allocated */
6745         unallocated_encoding(s);
6746         break;
6747     }
6748 }
6749
6750 /* Logic op (opcode == 3) subgroup of C3.6.16. */
6751 static void disas_simd_3same_logic(DisasContext *s, uint32_t insn)
6752 {
6753     int rd = extract32(insn, 0, 5);
6754     int rn = extract32(insn, 5, 5);
6755     int rm = extract32(insn, 16, 5);
6756     int size = extract32(insn, 22, 2);
6757     bool is_u = extract32(insn, 29, 1);
6758     bool is_q = extract32(insn, 30, 1);
6759     TCGv_i64 tcg_op1 = tcg_temp_new_i64();
6760     TCGv_i64 tcg_op2 = tcg_temp_new_i64();
6761     TCGv_i64 tcg_res[2];
6762     int pass;
6763
6764     tcg_res[0] = tcg_temp_new_i64();
6765     tcg_res[1] = tcg_temp_new_i64();
6766
6767     for (pass = 0; pass < (is_q ? 2 : 1); pass++) {
6768         read_vec_element(s, tcg_op1, rn, pass, MO_64);
6769         read_vec_element(s, tcg_op2, rm, pass, MO_64);
6770
6771         if (!is_u) {
6772             switch (size) {
6773             case 0: /* AND */
6774                 tcg_gen_and_i64(tcg_res[pass], tcg_op1, tcg_op2);
6775                 break;
6776             case 1: /* BIC */
6777                 tcg_gen_andc_i64(tcg_res[pass], tcg_op1, tcg_op2);
6778                 break;
6779             case 2: /* ORR */
6780                 tcg_gen_or_i64(tcg_res[pass], tcg_op1, tcg_op2);
6781                 break;
6782             case 3: /* ORN */
6783                 tcg_gen_orc_i64(tcg_res[pass], tcg_op1, tcg_op2);
6784                 break;
6785             }
6786         } else {
6787             if (size != 0) {
6788                 /* B* ops need res loaded to operate on */
6789                 read_vec_element(s, tcg_res[pass], rd, pass, MO_64);
6790             }
6791
6792             switch (size) {
6793             case 0: /* EOR */
6794                 tcg_gen_xor_i64(tcg_res[pass], tcg_op1, tcg_op2);
6795                 break;
6796             case 1: /* BSL bitwise select */
6797                 tcg_gen_xor_i64(tcg_op1, tcg_op1, tcg_op2);
6798                 tcg_gen_and_i64(tcg_op1, tcg_op1, tcg_res[pass]);
6799                 tcg_gen_xor_i64(tcg_res[pass], tcg_op2, tcg_op1);
6800                 break;
6801             case 2: /* BIT, bitwise insert if true */
6802                 tcg_gen_xor_i64(tcg_op1, tcg_op1, tcg_res[pass]);
6803                 tcg_gen_and_i64(tcg_op1, tcg_op1, tcg_op2);
6804                 tcg_gen_xor_i64(tcg_res[pass], tcg_res[pass], tcg_op1);
6805                 break;
6806             case 3: /* BIF, bitwise insert if false */
6807                 tcg_gen_xor_i64(tcg_op1, tcg_op1, tcg_res[pass]);
6808                 tcg_gen_andc_i64(tcg_op1, tcg_op1, tcg_op2);
6809                 tcg_gen_xor_i64(tcg_res[pass], tcg_res[pass], tcg_op1);
6810                 break;
6811             }
6812         }
6813     }
6814
6815     write_vec_element(s, tcg_res[0], rd, 0, MO_64);
6816     if (!is_q) {
6817         tcg_gen_movi_i64(tcg_res[1], 0);
6818     }
6819     write_vec_element(s, tcg_res[1], rd, 1, MO_64);
6820
6821     tcg_temp_free_i64(tcg_op1);
6822     tcg_temp_free_i64(tcg_op2);
6823     tcg_temp_free_i64(tcg_res[0]);
6824     tcg_temp_free_i64(tcg_res[1]);
6825 }
6826
6827 /* Helper functions for 32 bit comparisons */
6828 static void gen_max_s32(TCGv_i32 res, TCGv_i32 op1, TCGv_i32 op2)
6829 {
6830     tcg_gen_movcond_i32(TCG_COND_GE, res, op1, op2, op1, op2);
6831 }
6832
6833 static void gen_max_u32(TCGv_i32 res, TCGv_i32 op1, TCGv_i32 op2)
6834 {
6835     tcg_gen_movcond_i32(TCG_COND_GEU, res, op1, op2, op1, op2);
6836 }
6837
6838 static void gen_min_s32(TCGv_i32 res, TCGv_i32 op1, TCGv_i32 op2)
6839 {
6840     tcg_gen_movcond_i32(TCG_COND_LE, res, op1, op2, op1, op2);
6841 }
6842
6843 static void gen_min_u32(TCGv_i32 res, TCGv_i32 op1, TCGv_i32 op2)
6844 {
6845     tcg_gen_movcond_i32(TCG_COND_LEU, res, op1, op2, op1, op2);
6846 }
6847
6848 /* Pairwise op subgroup of C3.6.16. */
6849 static void disas_simd_3same_pair(DisasContext *s, uint32_t insn)
6850 {
6851     int is_q = extract32(insn, 30, 1);
6852     int u = extract32(insn, 29, 1);
6853     int size = extract32(insn, 22, 2);
6854     int opcode = extract32(insn, 11, 5);
6855     int rm = extract32(insn, 16, 5);
6856     int rn = extract32(insn, 5, 5);
6857     int rd = extract32(insn, 0, 5);
6858     int pass;
6859
6860     if (size == 3 && !is_q) {
6861         unallocated_encoding(s);
6862         return;
6863     }
6864
6865     switch (opcode) {
6866     case 0x14: /* SMAXP, UMAXP */
6867     case 0x15: /* SMINP, UMINP */
6868         if (size == 3) {
6869             unallocated_encoding(s);
6870             return;
6871         }
6872         break;
6873     case 0x17:
6874         if (u) {
6875             unallocated_encoding(s);
6876             return;
6877         }
6878         break;
6879     default:
6880         g_assert_not_reached();
6881     }
6882
6883     /* These operations work on the concatenated rm:rn, with each pair of
6884      * adjacent elements being operated on to produce an element in the result.
6885      */
6886     if (size == 3) {
6887         TCGv_i64 tcg_res[2];
6888
6889         for (pass = 0; pass < 2; pass++) {
6890             TCGv_i64 tcg_op1 = tcg_temp_new_i64();
6891             TCGv_i64 tcg_op2 = tcg_temp_new_i64();
6892             int passreg = (pass == 0) ? rn : rm;
6893
6894             read_vec_element(s, tcg_op1, passreg, 0, MO_64);
6895             read_vec_element(s, tcg_op2, passreg, 1, MO_64);
6896             tcg_res[pass] = tcg_temp_new_i64();
6897
6898             /* The only 64 bit pairwise integer op is ADDP */
6899             assert(opcode == 0x17);
6900             tcg_gen_add_i64(tcg_res[pass], tcg_op1, tcg_op2);
6901
6902             tcg_temp_free_i64(tcg_op1);
6903             tcg_temp_free_i64(tcg_op2);
6904         }
6905
6906         for (pass = 0; pass < 2; pass++) {
6907             write_vec_element(s, tcg_res[pass], rd, pass, MO_64);
6908             tcg_temp_free_i64(tcg_res[pass]);
6909         }
6910     } else {
6911         int maxpass = is_q ? 4 : 2;
6912         TCGv_i32 tcg_res[4];
6913
6914         for (pass = 0; pass < maxpass; pass++) {
6915             TCGv_i32 tcg_op1 = tcg_temp_new_i32();
6916             TCGv_i32 tcg_op2 = tcg_temp_new_i32();
6917             NeonGenTwoOpFn *genfn;
6918             int passreg = pass < (maxpass / 2) ? rn : rm;
6919             int passelt = (is_q && (pass & 1)) ? 2 : 0;
6920
6921             read_vec_element_i32(s, tcg_op1, passreg, passelt, MO_32);
6922             read_vec_element_i32(s, tcg_op2, passreg, passelt + 1, MO_32);
6923             tcg_res[pass] = tcg_temp_new_i32();
6924
6925             switch (opcode) {
6926             case 0x17: /* ADDP */
6927             {
6928                 static NeonGenTwoOpFn * const fns[3] = {
6929                     gen_helper_neon_padd_u8,
6930                     gen_helper_neon_padd_u16,
6931                     tcg_gen_add_i32,
6932                 };
6933                 genfn = fns[size];
6934                 break;
6935             }
6936             case 0x14: /* SMAXP, UMAXP */
6937             {
6938                 static NeonGenTwoOpFn * const fns[3][2] = {
6939                     { gen_helper_neon_pmax_s8, gen_helper_neon_pmax_u8 },
6940                     { gen_helper_neon_pmax_s16, gen_helper_neon_pmax_u16 },
6941                     { gen_max_s32, gen_max_u32 },
6942                 };
6943                 genfn = fns[size][u];
6944                 break;
6945             }
6946             case 0x15: /* SMINP, UMINP */
6947             {
6948                 static NeonGenTwoOpFn * const fns[3][2] = {
6949                     { gen_helper_neon_pmin_s8, gen_helper_neon_pmin_u8 },
6950                     { gen_helper_neon_pmin_s16, gen_helper_neon_pmin_u16 },
6951                     { gen_min_s32, gen_min_u32 },
6952                 };
6953                 genfn = fns[size][u];
6954                 break;
6955             }
6956             default:
6957                 g_assert_not_reached();
6958             }
6959
6960             genfn(tcg_res[pass], tcg_op1, tcg_op2);
6961
6962             tcg_temp_free_i32(tcg_op1);
6963             tcg_temp_free_i32(tcg_op2);
6964         }
6965
6966         for (pass = 0; pass < maxpass; pass++) {
6967             write_vec_element_i32(s, tcg_res[pass], rd, pass, MO_32);
6968             tcg_temp_free_i32(tcg_res[pass]);
6969         }
6970         if (!is_q) {
6971             clear_vec_high(s, rd);
6972         }
6973     }
6974 }
6975
6976 /* Floating point op subgroup of C3.6.16. */
6977 static void disas_simd_3same_float(DisasContext *s, uint32_t insn)
6978 {
6979     /* For floating point ops, the U, size[1] and opcode bits
6980      * together indicate the operation. size[0] indicates single
6981      * or double.
6982      */
6983     int fpopcode = extract32(insn, 11, 5)
6984         | (extract32(insn, 23, 1) << 5)
6985         | (extract32(insn, 29, 1) << 6);
6986     int is_q = extract32(insn, 30, 1);
6987     int size = extract32(insn, 22, 1);
6988     int rm = extract32(insn, 16, 5);
6989     int rn = extract32(insn, 5, 5);
6990     int rd = extract32(insn, 0, 5);
6991
6992     int datasize = is_q ? 128 : 64;
6993     int esize = 32 << size;
6994     int elements = datasize / esize;
6995
6996     if (size == 1 && !is_q) {
6997         unallocated_encoding(s);
6998         return;
6999     }
7000
7001     switch (fpopcode) {
7002     case 0x58: /* FMAXNMP */
7003     case 0x5a: /* FADDP */
7004     case 0x5e: /* FMAXP */
7005     case 0x78: /* FMINNMP */
7006     case 0x7e: /* FMINP */
7007         /* pairwise ops */
7008         unsupported_encoding(s, insn);
7009         return;
7010     case 0x1b: /* FMULX */
7011     case 0x1c: /* FCMEQ */
7012     case 0x1f: /* FRECPS */
7013     case 0x3f: /* FRSQRTS */
7014     case 0x5c: /* FCMGE */
7015     case 0x5d: /* FACGE */
7016     case 0x7c: /* FCMGT */
7017     case 0x7d: /* FACGT */
7018     case 0x19: /* FMLA */
7019     case 0x39: /* FMLS */
7020         unsupported_encoding(s, insn);
7021         return;
7022     case 0x18: /* FMAXNM */
7023     case 0x1a: /* FADD */
7024     case 0x1e: /* FMAX */
7025     case 0x38: /* FMINNM */
7026     case 0x3a: /* FSUB */
7027     case 0x3e: /* FMIN */
7028     case 0x5b: /* FMUL */
7029     case 0x5f: /* FDIV */
7030     case 0x7a: /* FABD */
7031         handle_3same_float(s, size, elements, fpopcode, rd, rn, rm);
7032         return;
7033     default:
7034         unallocated_encoding(s);
7035         return;
7036     }
7037 }
7038
7039 /* Integer op subgroup of C3.6.16. */
7040 static void disas_simd_3same_int(DisasContext *s, uint32_t insn)
7041 {
7042     int is_q = extract32(insn, 30, 1);
7043     int u = extract32(insn, 29, 1);
7044     int size = extract32(insn, 22, 2);
7045     int opcode = extract32(insn, 11, 5);
7046     int rm = extract32(insn, 16, 5);
7047     int rn = extract32(insn, 5, 5);
7048     int rd = extract32(insn, 0, 5);
7049     int pass;
7050
7051     switch (opcode) {
7052     case 0x13: /* MUL, PMUL */
7053         if (u && size != 0) {
7054             unallocated_encoding(s);
7055             return;
7056         }
7057         /* fall through */
7058     case 0x0: /* SHADD, UHADD */
7059     case 0x2: /* SRHADD, URHADD */
7060     case 0x4: /* SHSUB, UHSUB */
7061     case 0xc: /* SMAX, UMAX */
7062     case 0xd: /* SMIN, UMIN */
7063     case 0xe: /* SABD, UABD */
7064     case 0xf: /* SABA, UABA */
7065     case 0x12: /* MLA, MLS */
7066         if (size == 3) {
7067             unallocated_encoding(s);
7068             return;
7069         }
7070         break;
7071     case 0x16: /* SQDMULH, SQRDMULH */
7072         if (size == 0 || size == 3) {
7073             unallocated_encoding(s);
7074             return;
7075         }
7076         break;
7077     default:
7078         if (size == 3 && !is_q) {
7079             unallocated_encoding(s);
7080             return;
7081         }
7082         break;
7083     }
7084
7085     if (size == 3) {
7086         for (pass = 0; pass < (is_q ? 2 : 1); pass++) {
7087             TCGv_i64 tcg_op1 = tcg_temp_new_i64();
7088             TCGv_i64 tcg_op2 = tcg_temp_new_i64();
7089             TCGv_i64 tcg_res = tcg_temp_new_i64();
7090
7091             read_vec_element(s, tcg_op1, rn, pass, MO_64);
7092             read_vec_element(s, tcg_op2, rm, pass, MO_64);
7093
7094             handle_3same_64(s, opcode, u, tcg_res, tcg_op1, tcg_op2);
7095
7096             write_vec_element(s, tcg_res, rd, pass, MO_64);
7097
7098             tcg_temp_free_i64(tcg_res);
7099             tcg_temp_free_i64(tcg_op1);
7100             tcg_temp_free_i64(tcg_op2);
7101         }
7102     } else {
7103         for (pass = 0; pass < (is_q ? 4 : 2); pass++) {
7104             TCGv_i32 tcg_op1 = tcg_temp_new_i32();
7105             TCGv_i32 tcg_op2 = tcg_temp_new_i32();
7106             TCGv_i32 tcg_res = tcg_temp_new_i32();
7107             NeonGenTwoOpFn *genfn = NULL;
7108             NeonGenTwoOpEnvFn *genenvfn = NULL;
7109
7110             read_vec_element_i32(s, tcg_op1, rn, pass, MO_32);
7111             read_vec_element_i32(s, tcg_op2, rm, pass, MO_32);
7112
7113             switch (opcode) {
7114             case 0x0: /* SHADD, UHADD */
7115             {
7116                 static NeonGenTwoOpFn * const fns[3][2] = {
7117                     { gen_helper_neon_hadd_s8, gen_helper_neon_hadd_u8 },
7118                     { gen_helper_neon_hadd_s16, gen_helper_neon_hadd_u16 },
7119                     { gen_helper_neon_hadd_s32, gen_helper_neon_hadd_u32 },
7120                 };
7121                 genfn = fns[size][u];
7122                 break;
7123             }
7124             case 0x1: /* SQADD, UQADD */
7125             {
7126                 static NeonGenTwoOpEnvFn * const fns[3][2] = {
7127                     { gen_helper_neon_qadd_s8, gen_helper_neon_qadd_u8 },
7128                     { gen_helper_neon_qadd_s16, gen_helper_neon_qadd_u16 },
7129                     { gen_helper_neon_qadd_s32, gen_helper_neon_qadd_u32 },
7130                 };
7131                 genenvfn = fns[size][u];
7132                 break;
7133             }
7134             case 0x2: /* SRHADD, URHADD */
7135             {
7136                 static NeonGenTwoOpFn * const fns[3][2] = {
7137                     { gen_helper_neon_rhadd_s8, gen_helper_neon_rhadd_u8 },
7138                     { gen_helper_neon_rhadd_s16, gen_helper_neon_rhadd_u16 },
7139                     { gen_helper_neon_rhadd_s32, gen_helper_neon_rhadd_u32 },
7140                 };
7141                 genfn = fns[size][u];
7142                 break;
7143             }
7144             case 0x4: /* SHSUB, UHSUB */
7145             {
7146                 static NeonGenTwoOpFn * const fns[3][2] = {
7147                     { gen_helper_neon_hsub_s8, gen_helper_neon_hsub_u8 },
7148                     { gen_helper_neon_hsub_s16, gen_helper_neon_hsub_u16 },
7149                     { gen_helper_neon_hsub_s32, gen_helper_neon_hsub_u32 },
7150                 };
7151                 genfn = fns[size][u];
7152                 break;
7153             }
7154             case 0x5: /* SQSUB, UQSUB */
7155             {
7156                 static NeonGenTwoOpEnvFn * const fns[3][2] = {
7157                     { gen_helper_neon_qsub_s8, gen_helper_neon_qsub_u8 },
7158                     { gen_helper_neon_qsub_s16, gen_helper_neon_qsub_u16 },
7159                     { gen_helper_neon_qsub_s32, gen_helper_neon_qsub_u32 },
7160                 };
7161                 genenvfn = fns[size][u];
7162                 break;
7163             }
7164             case 0x6: /* CMGT, CMHI */
7165             {
7166                 static NeonGenTwoOpFn * const fns[3][2] = {
7167                     { gen_helper_neon_cgt_s8, gen_helper_neon_cgt_u8 },
7168                     { gen_helper_neon_cgt_s16, gen_helper_neon_cgt_u16 },
7169                     { gen_helper_neon_cgt_s32, gen_helper_neon_cgt_u32 },
7170                 };
7171                 genfn = fns[size][u];
7172                 break;
7173             }
7174             case 0x7: /* CMGE, CMHS */
7175             {
7176                 static NeonGenTwoOpFn * const fns[3][2] = {
7177                     { gen_helper_neon_cge_s8, gen_helper_neon_cge_u8 },
7178                     { gen_helper_neon_cge_s16, gen_helper_neon_cge_u16 },
7179                     { gen_helper_neon_cge_s32, gen_helper_neon_cge_u32 },
7180                 };
7181                 genfn = fns[size][u];
7182                 break;
7183             }
7184             case 0x8: /* SSHL, USHL */
7185             {
7186                 static NeonGenTwoOpFn * const fns[3][2] = {
7187                     { gen_helper_neon_shl_s8, gen_helper_neon_shl_u8 },
7188                     { gen_helper_neon_shl_s16, gen_helper_neon_shl_u16 },
7189                     { gen_helper_neon_shl_s32, gen_helper_neon_shl_u32 },
7190                 };
7191                 genfn = fns[size][u];
7192                 break;
7193             }
7194             case 0x9: /* SQSHL, UQSHL */
7195             {
7196                 static NeonGenTwoOpEnvFn * const fns[3][2] = {
7197                     { gen_helper_neon_qshl_s8, gen_helper_neon_qshl_u8 },
7198                     { gen_helper_neon_qshl_s16, gen_helper_neon_qshl_u16 },
7199                     { gen_helper_neon_qshl_s32, gen_helper_neon_qshl_u32 },
7200                 };
7201                 genenvfn = fns[size][u];
7202                 break;
7203             }
7204             case 0xa: /* SRSHL, URSHL */
7205             {
7206                 static NeonGenTwoOpFn * const fns[3][2] = {
7207                     { gen_helper_neon_rshl_s8, gen_helper_neon_rshl_u8 },
7208                     { gen_helper_neon_rshl_s16, gen_helper_neon_rshl_u16 },
7209                     { gen_helper_neon_rshl_s32, gen_helper_neon_rshl_u32 },
7210                 };
7211                 genfn = fns[size][u];
7212                 break;
7213             }
7214             case 0xb: /* SQRSHL, UQRSHL */
7215             {
7216                 static NeonGenTwoOpEnvFn * const fns[3][2] = {
7217                     { gen_helper_neon_qrshl_s8, gen_helper_neon_qrshl_u8 },
7218                     { gen_helper_neon_qrshl_s16, gen_helper_neon_qrshl_u16 },
7219                     { gen_helper_neon_qrshl_s32, gen_helper_neon_qrshl_u32 },
7220                 };
7221                 genenvfn = fns[size][u];
7222                 break;
7223             }
7224             case 0xc: /* SMAX, UMAX */
7225             {
7226                 static NeonGenTwoOpFn * const fns[3][2] = {
7227                     { gen_helper_neon_max_s8, gen_helper_neon_max_u8 },
7228                     { gen_helper_neon_max_s16, gen_helper_neon_max_u16 },
7229                     { gen_max_s32, gen_max_u32 },
7230                 };
7231                 genfn = fns[size][u];
7232                 break;
7233             }
7234
7235             case 0xd: /* SMIN, UMIN */
7236             {
7237                 static NeonGenTwoOpFn * const fns[3][2] = {
7238                     { gen_helper_neon_min_s8, gen_helper_neon_min_u8 },
7239                     { gen_helper_neon_min_s16, gen_helper_neon_min_u16 },
7240                     { gen_min_s32, gen_min_u32 },
7241                 };
7242                 genfn = fns[size][u];
7243                 break;
7244             }
7245             case 0xe: /* SABD, UABD */
7246             case 0xf: /* SABA, UABA */
7247             {
7248                 static NeonGenTwoOpFn * const fns[3][2] = {
7249                     { gen_helper_neon_abd_s8, gen_helper_neon_abd_u8 },
7250                     { gen_helper_neon_abd_s16, gen_helper_neon_abd_u16 },
7251                     { gen_helper_neon_abd_s32, gen_helper_neon_abd_u32 },
7252                 };
7253                 genfn = fns[size][u];
7254                 break;
7255             }
7256             case 0x10: /* ADD, SUB */
7257             {
7258                 static NeonGenTwoOpFn * const fns[3][2] = {
7259                     { gen_helper_neon_add_u8, gen_helper_neon_sub_u8 },
7260                     { gen_helper_neon_add_u16, gen_helper_neon_sub_u16 },
7261                     { tcg_gen_add_i32, tcg_gen_sub_i32 },
7262                 };
7263                 genfn = fns[size][u];
7264                 break;
7265             }
7266             case 0x11: /* CMTST, CMEQ */
7267             {
7268                 static NeonGenTwoOpFn * const fns[3][2] = {
7269                     { gen_helper_neon_tst_u8, gen_helper_neon_ceq_u8 },
7270                     { gen_helper_neon_tst_u16, gen_helper_neon_ceq_u16 },
7271                     { gen_helper_neon_tst_u32, gen_helper_neon_ceq_u32 },
7272                 };
7273                 genfn = fns[size][u];
7274                 break;
7275             }
7276             case 0x13: /* MUL, PMUL */
7277                 if (u) {
7278                     /* PMUL */
7279                     assert(size == 0);
7280                     genfn = gen_helper_neon_mul_p8;
7281                     break;
7282                 }
7283                 /* fall through : MUL */
7284             case 0x12: /* MLA, MLS */
7285             {
7286                 static NeonGenTwoOpFn * const fns[3] = {
7287                     gen_helper_neon_mul_u8,
7288                     gen_helper_neon_mul_u16,
7289                     tcg_gen_mul_i32,
7290                 };
7291                 genfn = fns[size];
7292                 break;
7293             }
7294             case 0x16: /* SQDMULH, SQRDMULH */
7295             {
7296                 static NeonGenTwoOpEnvFn * const fns[2][2] = {
7297                     { gen_helper_neon_qdmulh_s16, gen_helper_neon_qrdmulh_s16 },
7298                     { gen_helper_neon_qdmulh_s32, gen_helper_neon_qrdmulh_s32 },
7299                 };
7300                 assert(size == 1 || size == 2);
7301                 genenvfn = fns[size - 1][u];
7302                 break;
7303             }
7304             default:
7305                 g_assert_not_reached();
7306             }
7307
7308             if (genenvfn) {
7309                 genenvfn(tcg_res, cpu_env, tcg_op1, tcg_op2);
7310             } else {
7311                 genfn(tcg_res, tcg_op1, tcg_op2);
7312             }
7313
7314             if (opcode == 0xf || opcode == 0x12) {
7315                 /* SABA, UABA, MLA, MLS: accumulating ops */
7316                 static NeonGenTwoOpFn * const fns[3][2] = {
7317                     { gen_helper_neon_add_u8, gen_helper_neon_sub_u8 },
7318                     { gen_helper_neon_add_u16, gen_helper_neon_sub_u16 },
7319                     { tcg_gen_add_i32, tcg_gen_sub_i32 },
7320                 };
7321                 bool is_sub = (opcode == 0x12 && u); /* MLS */
7322
7323                 genfn = fns[size][is_sub];
7324                 read_vec_element_i32(s, tcg_op1, rd, pass, MO_32);
7325                 genfn(tcg_res, tcg_res, tcg_op1);
7326             }
7327
7328             write_vec_element_i32(s, tcg_res, rd, pass, MO_32);
7329
7330             tcg_temp_free_i32(tcg_res);
7331             tcg_temp_free_i32(tcg_op1);
7332             tcg_temp_free_i32(tcg_op2);
7333         }
7334     }
7335
7336     if (!is_q) {
7337         clear_vec_high(s, rd);
7338     }
7339 }
7340
7341 /* C3.6.16 AdvSIMD three same
7342  *  31  30  29  28       24 23  22  21 20  16 15    11  10 9    5 4    0
7343  * +---+---+---+-----------+------+---+------+--------+---+------+------+
7344  * | 0 | Q | U | 0 1 1 1 0 | size | 1 |  Rm  | opcode | 1 |  Rn  |  Rd  |
7345  * +---+---+---+-----------+------+---+------+--------+---+------+------+
7346  */
7347 static void disas_simd_three_reg_same(DisasContext *s, uint32_t insn)
7348 {
7349     int opcode = extract32(insn, 11, 5);
7350
7351     switch (opcode) {
7352     case 0x3: /* logic ops */
7353         disas_simd_3same_logic(s, insn);
7354         break;
7355     case 0x17: /* ADDP */
7356     case 0x14: /* SMAXP, UMAXP */
7357     case 0x15: /* SMINP, UMINP */
7358         /* Pairwise operations */
7359         disas_simd_3same_pair(s, insn);
7360         break;
7361     case 0x18 ... 0x31:
7362         /* floating point ops, sz[1] and U are part of opcode */
7363         disas_simd_3same_float(s, insn);
7364         break;
7365     default:
7366         disas_simd_3same_int(s, insn);
7367         break;
7368     }
7369 }
7370
7371 static void handle_2misc_narrow(DisasContext *s, int opcode, bool u, bool is_q,
7372                                 int size, int rn, int rd)
7373 {
7374     /* Handle 2-reg-misc ops which are narrowing (so each 2*size element
7375      * in the source becomes a size element in the destination).
7376      */
7377     int pass;
7378     TCGv_i32 tcg_res[2];
7379     int destelt = is_q ? 2 : 0;
7380
7381     for (pass = 0; pass < 2; pass++) {
7382         TCGv_i64 tcg_op = tcg_temp_new_i64();
7383         NeonGenNarrowFn *genfn = NULL;
7384         NeonGenNarrowEnvFn *genenvfn = NULL;
7385
7386         read_vec_element(s, tcg_op, rn, pass, MO_64);
7387         tcg_res[pass] = tcg_temp_new_i32();
7388
7389         switch (opcode) {
7390         case 0x12: /* XTN, SQXTUN */
7391         {
7392             static NeonGenNarrowFn * const xtnfns[3] = {
7393                 gen_helper_neon_narrow_u8,
7394                 gen_helper_neon_narrow_u16,
7395                 tcg_gen_trunc_i64_i32,
7396             };
7397             static NeonGenNarrowEnvFn * const sqxtunfns[3] = {
7398                 gen_helper_neon_unarrow_sat8,
7399                 gen_helper_neon_unarrow_sat16,
7400                 gen_helper_neon_unarrow_sat32,
7401             };
7402             if (u) {
7403                 genenvfn = sqxtunfns[size];
7404             } else {
7405                 genfn = xtnfns[size];
7406             }
7407             break;
7408         }
7409         case 0x14: /* SQXTN, UQXTN */
7410         {
7411             static NeonGenNarrowEnvFn * const fns[3][2] = {
7412                 { gen_helper_neon_narrow_sat_s8,
7413                   gen_helper_neon_narrow_sat_u8 },
7414                 { gen_helper_neon_narrow_sat_s16,
7415                   gen_helper_neon_narrow_sat_u16 },
7416                 { gen_helper_neon_narrow_sat_s32,
7417                   gen_helper_neon_narrow_sat_u32 },
7418             };
7419             genenvfn = fns[size][u];
7420             break;
7421         }
7422         default:
7423             g_assert_not_reached();
7424         }
7425
7426         if (genfn) {
7427             genfn(tcg_res[pass], tcg_op);
7428         } else {
7429             genenvfn(tcg_res[pass], cpu_env, tcg_op);
7430         }
7431
7432         tcg_temp_free_i64(tcg_op);
7433     }
7434
7435     for (pass = 0; pass < 2; pass++) {
7436         write_vec_element_i32(s, tcg_res[pass], rd, destelt + pass, MO_32);
7437         tcg_temp_free_i32(tcg_res[pass]);
7438     }
7439     if (!is_q) {
7440         clear_vec_high(s, rd);
7441     }
7442 }
7443
7444 static void handle_rev(DisasContext *s, int opcode, bool u,
7445                        bool is_q, int size, int rn, int rd)
7446 {
7447     int op = (opcode << 1) | u;
7448     int opsz = op + size;
7449     int grp_size = 3 - opsz;
7450     int dsize = is_q ? 128 : 64;
7451     int i;
7452
7453     if (opsz >= 3) {
7454         unallocated_encoding(s);
7455         return;
7456     }
7457
7458     if (size == 0) {
7459         /* Special case bytes, use bswap op on each group of elements */
7460         int groups = dsize / (8 << grp_size);
7461
7462         for (i = 0; i < groups; i++) {
7463             TCGv_i64 tcg_tmp = tcg_temp_new_i64();
7464
7465             read_vec_element(s, tcg_tmp, rn, i, grp_size);
7466             switch (grp_size) {
7467             case MO_16:
7468                 tcg_gen_bswap16_i64(tcg_tmp, tcg_tmp);
7469                 break;
7470             case MO_32:
7471                 tcg_gen_bswap32_i64(tcg_tmp, tcg_tmp);
7472                 break;
7473             case MO_64:
7474                 tcg_gen_bswap64_i64(tcg_tmp, tcg_tmp);
7475                 break;
7476             default:
7477                 g_assert_not_reached();
7478             }
7479             write_vec_element(s, tcg_tmp, rd, i, grp_size);
7480             tcg_temp_free_i64(tcg_tmp);
7481         }
7482         if (!is_q) {
7483             clear_vec_high(s, rd);
7484         }
7485     } else {
7486         int revmask = (1 << grp_size) - 1;
7487         int esize = 8 << size;
7488         int elements = dsize / esize;
7489         TCGv_i64 tcg_rn = tcg_temp_new_i64();
7490         TCGv_i64 tcg_rd = tcg_const_i64(0);
7491         TCGv_i64 tcg_rd_hi = tcg_const_i64(0);
7492
7493         for (i = 0; i < elements; i++) {
7494             int e_rev = (i & 0xf) ^ revmask;
7495             int off = e_rev * esize;
7496             read_vec_element(s, tcg_rn, rn, i, size);
7497             if (off >= 64) {
7498                 tcg_gen_deposit_i64(tcg_rd_hi, tcg_rd_hi,
7499                                     tcg_rn, off - 64, esize);
7500             } else {
7501                 tcg_gen_deposit_i64(tcg_rd, tcg_rd, tcg_rn, off, esize);
7502             }
7503         }
7504         write_vec_element(s, tcg_rd, rd, 0, MO_64);
7505         write_vec_element(s, tcg_rd_hi, rd, 1, MO_64);
7506
7507         tcg_temp_free_i64(tcg_rd_hi);
7508         tcg_temp_free_i64(tcg_rd);
7509         tcg_temp_free_i64(tcg_rn);
7510     }
7511 }
7512
7513 /* C3.6.17 AdvSIMD two reg misc
7514  *   31  30  29 28       24 23  22 21       17 16    12 11 10 9    5 4    0
7515  * +---+---+---+-----------+------+-----------+--------+-----+------+------+
7516  * | 0 | Q | U | 0 1 1 1 0 | size | 1 0 0 0 0 | opcode | 1 0 |  Rn  |  Rd  |
7517  * +---+---+---+-----------+------+-----------+--------+-----+------+------+
7518  */
7519 static void disas_simd_two_reg_misc(DisasContext *s, uint32_t insn)
7520 {
7521     int size = extract32(insn, 22, 2);
7522     int opcode = extract32(insn, 12, 5);
7523     bool u = extract32(insn, 29, 1);
7524     bool is_q = extract32(insn, 30, 1);
7525     int rn = extract32(insn, 5, 5);
7526     int rd = extract32(insn, 0, 5);
7527
7528     switch (opcode) {
7529     case 0x0: /* REV64, REV32 */
7530     case 0x1: /* REV16 */
7531         handle_rev(s, opcode, u, is_q, size, rn, rd);
7532         return;
7533     case 0x5: /* CNT, NOT, RBIT */
7534         if (u && size == 0) {
7535             /* NOT: adjust size so we can use the 64-bits-at-a-time loop. */
7536             size = 3;
7537             break;
7538         } else if (u && size == 1) {
7539             /* RBIT */
7540             break;
7541         } else if (!u && size == 0) {
7542             /* CNT */
7543             break;
7544         }
7545         unallocated_encoding(s);
7546         return;
7547     case 0x12: /* XTN, XTN2, SQXTUN, SQXTUN2 */
7548     case 0x14: /* SQXTN, SQXTN2, UQXTN, UQXTN2 */
7549         if (size == 3) {
7550             unallocated_encoding(s);
7551             return;
7552         }
7553         handle_2misc_narrow(s, opcode, u, is_q, size, rn, rd);
7554         return;
7555     case 0x2: /* SADDLP, UADDLP */
7556     case 0x4: /* CLS, CLZ */
7557     case 0x6: /* SADALP, UADALP */
7558         if (size == 3) {
7559             unallocated_encoding(s);
7560             return;
7561         }
7562         unsupported_encoding(s, insn);
7563         return;
7564     case 0x13: /* SHLL, SHLL2 */
7565         if (u == 0 || size == 3) {
7566             unallocated_encoding(s);
7567             return;
7568         }
7569         unsupported_encoding(s, insn);
7570         return;
7571     case 0xa: /* CMLT */
7572         if (u == 1) {
7573             unallocated_encoding(s);
7574             return;
7575         }
7576         /* fall through */
7577     case 0x8: /* CMGT, CMGE */
7578     case 0x9: /* CMEQ, CMLE */
7579     case 0xb: /* ABS, NEG */
7580         if (size == 3 && !is_q) {
7581             unallocated_encoding(s);
7582             return;
7583         }
7584         break;
7585     case 0x3: /* SUQADD, USQADD */
7586     case 0x7: /* SQABS, SQNEG */
7587         if (size == 3 && !is_q) {
7588             unallocated_encoding(s);
7589             return;
7590         }
7591         unsupported_encoding(s, insn);
7592         return;
7593     case 0xc ... 0xf:
7594     case 0x16 ... 0x1d:
7595     case 0x1f:
7596     {
7597         /* Floating point: U, size[1] and opcode indicate operation;
7598          * size[0] indicates single or double precision.
7599          */
7600         opcode |= (extract32(size, 1, 1) << 5) | (u << 6);
7601         size = extract32(size, 0, 1) ? 3 : 2;
7602         switch (opcode) {
7603         case 0x2f: /* FABS */
7604         case 0x6f: /* FNEG */
7605             if (size == 3 && !is_q) {
7606                 unallocated_encoding(s);
7607                 return;
7608             }
7609             break;
7610         case 0x16: /* FCVTN, FCVTN2 */
7611         case 0x17: /* FCVTL, FCVTL2 */
7612         case 0x18: /* FRINTN */
7613         case 0x19: /* FRINTM */
7614         case 0x1a: /* FCVTNS */
7615         case 0x1b: /* FCVTMS */
7616         case 0x1c: /* FCVTAS */
7617         case 0x1d: /* SCVTF */
7618         case 0x2c: /* FCMGT (zero) */
7619         case 0x2d: /* FCMEQ (zero) */
7620         case 0x2e: /* FCMLT (zero) */
7621         case 0x38: /* FRINTP */
7622         case 0x39: /* FRINTZ */
7623         case 0x3a: /* FCVTPS */
7624         case 0x3b: /* FCVTZS */
7625         case 0x3c: /* URECPE */
7626         case 0x3d: /* FRECPE */
7627         case 0x56: /* FCVTXN, FCVTXN2 */
7628         case 0x58: /* FRINTA */
7629         case 0x59: /* FRINTX */
7630         case 0x5a: /* FCVTNU */
7631         case 0x5b: /* FCVTMU */
7632         case 0x5c: /* FCVTAU */
7633         case 0x5d: /* UCVTF */
7634         case 0x6c: /* FCMGE (zero) */
7635         case 0x6d: /* FCMLE (zero) */
7636         case 0x79: /* FRINTI */
7637         case 0x7a: /* FCVTPU */
7638         case 0x7b: /* FCVTZU */
7639         case 0x7c: /* URSQRTE */
7640         case 0x7d: /* FRSQRTE */
7641         case 0x7f: /* FSQRT */
7642             unsupported_encoding(s, insn);
7643             return;
7644         default:
7645             unallocated_encoding(s);
7646             return;
7647         }
7648         break;
7649     }
7650     default:
7651         unallocated_encoding(s);
7652         return;
7653     }
7654
7655     if (size == 3) {
7656         /* All 64-bit element operations can be shared with scalar 2misc */
7657         int pass;
7658
7659         for (pass = 0; pass < (is_q ? 2 : 1); pass++) {
7660             TCGv_i64 tcg_op = tcg_temp_new_i64();
7661             TCGv_i64 tcg_res = tcg_temp_new_i64();
7662
7663             read_vec_element(s, tcg_op, rn, pass, MO_64);
7664
7665             handle_2misc_64(s, opcode, u, tcg_res, tcg_op);
7666
7667             write_vec_element(s, tcg_res, rd, pass, MO_64);
7668
7669             tcg_temp_free_i64(tcg_res);
7670             tcg_temp_free_i64(tcg_op);
7671         }
7672     } else {
7673         int pass;
7674
7675         for (pass = 0; pass < (is_q ? 4 : 2); pass++) {
7676             TCGv_i32 tcg_op = tcg_temp_new_i32();
7677             TCGv_i32 tcg_res = tcg_temp_new_i32();
7678             TCGCond cond;
7679
7680             read_vec_element_i32(s, tcg_op, rn, pass, MO_32);
7681
7682             if (size == 2) {
7683                 /* Special cases for 32 bit elements */
7684                 switch (opcode) {
7685                 case 0xa: /* CMLT */
7686                     /* 32 bit integer comparison against zero, result is
7687                      * test ? (2^32 - 1) : 0. We implement via setcond(test)
7688                      * and inverting.
7689                      */
7690                     cond = TCG_COND_LT;
7691                 do_cmop:
7692                     tcg_gen_setcondi_i32(cond, tcg_res, tcg_op, 0);
7693                     tcg_gen_neg_i32(tcg_res, tcg_res);
7694                     break;
7695                 case 0x8: /* CMGT, CMGE */
7696                     cond = u ? TCG_COND_GE : TCG_COND_GT;
7697                     goto do_cmop;
7698                 case 0x9: /* CMEQ, CMLE */
7699                     cond = u ? TCG_COND_LE : TCG_COND_EQ;
7700                     goto do_cmop;
7701                 case 0xb: /* ABS, NEG */
7702                     if (u) {
7703                         tcg_gen_neg_i32(tcg_res, tcg_op);
7704                     } else {
7705                         TCGv_i32 tcg_zero = tcg_const_i32(0);
7706                         tcg_gen_neg_i32(tcg_res, tcg_op);
7707                         tcg_gen_movcond_i32(TCG_COND_GT, tcg_res, tcg_op,
7708                                             tcg_zero, tcg_op, tcg_res);
7709                         tcg_temp_free_i32(tcg_zero);
7710                     }
7711                     break;
7712                 case 0x2f: /* FABS */
7713                     gen_helper_vfp_abss(tcg_res, tcg_op);
7714                     break;
7715                 case 0x6f: /* FNEG */
7716                     gen_helper_vfp_negs(tcg_res, tcg_op);
7717                     break;
7718                 default:
7719                     g_assert_not_reached();
7720                 }
7721             } else {
7722                 /* Use helpers for 8 and 16 bit elements */
7723                 switch (opcode) {
7724                 case 0x5: /* CNT, RBIT */
7725                     /* For these two insns size is part of the opcode specifier
7726                      * (handled earlier); they always operate on byte elements.
7727                      */
7728                     if (u) {
7729                         gen_helper_neon_rbit_u8(tcg_res, tcg_op);
7730                     } else {
7731                         gen_helper_neon_cnt_u8(tcg_res, tcg_op);
7732                     }
7733                     break;
7734                 case 0x8: /* CMGT, CMGE */
7735                 case 0x9: /* CMEQ, CMLE */
7736                 case 0xa: /* CMLT */
7737                 {
7738                     static NeonGenTwoOpFn * const fns[3][2] = {
7739                         { gen_helper_neon_cgt_s8, gen_helper_neon_cgt_s16 },
7740                         { gen_helper_neon_cge_s8, gen_helper_neon_cge_s16 },
7741                         { gen_helper_neon_ceq_u8, gen_helper_neon_ceq_u16 },
7742                     };
7743                     NeonGenTwoOpFn *genfn;
7744                     int comp;
7745                     bool reverse;
7746                     TCGv_i32 tcg_zero = tcg_const_i32(0);
7747
7748                     /* comp = index into [CMGT, CMGE, CMEQ, CMLE, CMLT] */
7749                     comp = (opcode - 0x8) * 2 + u;
7750                     /* ...but LE, LT are implemented as reverse GE, GT */
7751                     reverse = (comp > 2);
7752                     if (reverse) {
7753                         comp = 4 - comp;
7754                     }
7755                     genfn = fns[comp][size];
7756                     if (reverse) {
7757                         genfn(tcg_res, tcg_zero, tcg_op);
7758                     } else {
7759                         genfn(tcg_res, tcg_op, tcg_zero);
7760                     }
7761                     tcg_temp_free_i32(tcg_zero);
7762                     break;
7763                 }
7764                 case 0xb: /* ABS, NEG */
7765                     if (u) {
7766                         TCGv_i32 tcg_zero = tcg_const_i32(0);
7767                         if (size) {
7768                             gen_helper_neon_sub_u16(tcg_res, tcg_zero, tcg_op);
7769                         } else {
7770                             gen_helper_neon_sub_u8(tcg_res, tcg_zero, tcg_op);
7771                         }
7772                         tcg_temp_free_i32(tcg_zero);
7773                     } else {
7774                         if (size) {
7775                             gen_helper_neon_abs_s16(tcg_res, tcg_op);
7776                         } else {
7777                             gen_helper_neon_abs_s8(tcg_res, tcg_op);
7778                         }
7779                     }
7780                     break;
7781                 default:
7782                     g_assert_not_reached();
7783                 }
7784             }
7785
7786             write_vec_element_i32(s, tcg_res, rd, pass, MO_32);
7787
7788             tcg_temp_free_i32(tcg_res);
7789             tcg_temp_free_i32(tcg_op);
7790         }
7791     }
7792     if (!is_q) {
7793         clear_vec_high(s, rd);
7794     }
7795 }
7796
7797 /* C3.6.13 AdvSIMD scalar x indexed element
7798  *  31 30  29 28       24 23  22 21  20  19  16 15 12  11  10 9    5 4    0
7799  * +-----+---+-----------+------+---+---+------+-----+---+---+------+------+
7800  * | 0 1 | U | 1 1 1 1 1 | size | L | M |  Rm  | opc | H | 0 |  Rn  |  Rd  |
7801  * +-----+---+-----------+------+---+---+------+-----+---+---+------+------+
7802  * C3.6.18 AdvSIMD vector x indexed element
7803  *   31  30  29 28       24 23  22 21  20  19  16 15 12  11  10 9    5 4    0
7804  * +---+---+---+-----------+------+---+---+------+-----+---+---+------+------+
7805  * | 0 | Q | U | 0 1 1 1 1 | size | L | M |  Rm  | opc | H | 0 |  Rn  |  Rd  |
7806  * +---+---+---+-----------+------+---+---+------+-----+---+---+------+------+
7807  */
7808 static void disas_simd_indexed(DisasContext *s, uint32_t insn)
7809 {
7810     /* This encoding has two kinds of instruction:
7811      *  normal, where we perform elt x idxelt => elt for each
7812      *     element in the vector
7813      *  long, where we perform elt x idxelt and generate a result of
7814      *     double the width of the input element
7815      * The long ops have a 'part' specifier (ie come in INSN, INSN2 pairs).
7816      */
7817     bool is_scalar = extract32(insn, 28, 1);
7818     bool is_q = extract32(insn, 30, 1);
7819     bool u = extract32(insn, 29, 1);
7820     int size = extract32(insn, 22, 2);
7821     int l = extract32(insn, 21, 1);
7822     int m = extract32(insn, 20, 1);
7823     /* Note that the Rm field here is only 4 bits, not 5 as it usually is */
7824     int rm = extract32(insn, 16, 4);
7825     int opcode = extract32(insn, 12, 4);
7826     int h = extract32(insn, 11, 1);
7827     int rn = extract32(insn, 5, 5);
7828     int rd = extract32(insn, 0, 5);
7829     bool is_long = false;
7830     bool is_fp = false;
7831     int index;
7832     TCGv_ptr fpst;
7833
7834     switch (opcode) {
7835     case 0x0: /* MLA */
7836     case 0x4: /* MLS */
7837         if (!u || is_scalar) {
7838             unallocated_encoding(s);
7839             return;
7840         }
7841         break;
7842     case 0x2: /* SMLAL, SMLAL2, UMLAL, UMLAL2 */
7843     case 0x6: /* SMLSL, SMLSL2, UMLSL, UMLSL2 */
7844     case 0xa: /* SMULL, SMULL2, UMULL, UMULL2 */
7845         if (is_scalar) {
7846             unallocated_encoding(s);
7847             return;
7848         }
7849         is_long = true;
7850         break;
7851     case 0x3: /* SQDMLAL, SQDMLAL2 */
7852     case 0x7: /* SQDMLSL, SQDMLSL2 */
7853     case 0xb: /* SQDMULL, SQDMULL2 */
7854         is_long = true;
7855         /* fall through */
7856     case 0xc: /* SQDMULH */
7857     case 0xd: /* SQRDMULH */
7858         if (u) {
7859             unallocated_encoding(s);
7860             return;
7861         }
7862         break;
7863     case 0x8: /* MUL */
7864         if (u || is_scalar) {
7865             unallocated_encoding(s);
7866             return;
7867         }
7868         break;
7869     case 0x1: /* FMLA */
7870     case 0x5: /* FMLS */
7871         if (u) {
7872             unallocated_encoding(s);
7873             return;
7874         }
7875         /* fall through */
7876     case 0x9: /* FMUL, FMULX */
7877         if (!extract32(size, 1, 1)) {
7878             unallocated_encoding(s);
7879             return;
7880         }
7881         is_fp = true;
7882         break;
7883     default:
7884         unallocated_encoding(s);
7885         return;
7886     }
7887
7888     if (is_fp) {
7889         /* low bit of size indicates single/double */
7890         size = extract32(size, 0, 1) ? 3 : 2;
7891         if (size == 2) {
7892             index = h << 1 | l;
7893         } else {
7894             if (l || !is_q) {
7895                 unallocated_encoding(s);
7896                 return;
7897             }
7898             index = h;
7899         }
7900         rm |= (m << 4);
7901     } else {
7902         switch (size) {
7903         case 1:
7904             index = h << 2 | l << 1 | m;
7905             break;
7906         case 2:
7907             index = h << 1 | l;
7908             rm |= (m << 4);
7909             break;
7910         default:
7911             unallocated_encoding(s);
7912             return;
7913         }
7914     }
7915
7916     if (is_fp) {
7917         fpst = get_fpstatus_ptr();
7918     } else {
7919         TCGV_UNUSED_PTR(fpst);
7920     }
7921
7922     if (size == 3) {
7923         TCGv_i64 tcg_idx = tcg_temp_new_i64();
7924         int pass;
7925
7926         assert(is_fp && is_q && !is_long);
7927
7928         read_vec_element(s, tcg_idx, rm, index, MO_64);
7929
7930         for (pass = 0; pass < (is_scalar ? 1 : 2); pass++) {
7931             TCGv_i64 tcg_op = tcg_temp_new_i64();
7932             TCGv_i64 tcg_res = tcg_temp_new_i64();
7933
7934             read_vec_element(s, tcg_op, rn, pass, MO_64);
7935
7936             switch (opcode) {
7937             case 0x5: /* FMLS */
7938                 /* As usual for ARM, separate negation for fused multiply-add */
7939                 gen_helper_vfp_negd(tcg_op, tcg_op);
7940                 /* fall through */
7941             case 0x1: /* FMLA */
7942                 read_vec_element(s, tcg_res, rd, pass, MO_64);
7943                 gen_helper_vfp_muladdd(tcg_res, tcg_op, tcg_idx, tcg_res, fpst);
7944                 break;
7945             case 0x9: /* FMUL, FMULX */
7946                 if (u) {
7947                     gen_helper_vfp_mulxd(tcg_res, tcg_op, tcg_idx, fpst);
7948                 } else {
7949                     gen_helper_vfp_muld(tcg_res, tcg_op, tcg_idx, fpst);
7950                 }
7951                 break;
7952             default:
7953                 g_assert_not_reached();
7954             }
7955
7956             write_vec_element(s, tcg_res, rd, pass, MO_64);
7957             tcg_temp_free_i64(tcg_op);
7958             tcg_temp_free_i64(tcg_res);
7959         }
7960
7961         if (is_scalar) {
7962             clear_vec_high(s, rd);
7963         }
7964
7965         tcg_temp_free_i64(tcg_idx);
7966     } else if (!is_long) {
7967         /* 32 bit floating point, or 16 or 32 bit integer.
7968          * For the 16 bit scalar case we use the usual Neon helpers and
7969          * rely on the fact that 0 op 0 == 0 with no side effects.
7970          */
7971         TCGv_i32 tcg_idx = tcg_temp_new_i32();
7972         int pass, maxpasses;
7973
7974         if (is_scalar) {
7975             maxpasses = 1;
7976         } else {
7977             maxpasses = is_q ? 4 : 2;
7978         }
7979
7980         read_vec_element_i32(s, tcg_idx, rm, index, size);
7981
7982         if (size == 1 && !is_scalar) {
7983             /* The simplest way to handle the 16x16 indexed ops is to duplicate
7984              * the index into both halves of the 32 bit tcg_idx and then use
7985              * the usual Neon helpers.
7986              */
7987             tcg_gen_deposit_i32(tcg_idx, tcg_idx, tcg_idx, 16, 16);
7988         }
7989
7990         for (pass = 0; pass < maxpasses; pass++) {
7991             TCGv_i32 tcg_op = tcg_temp_new_i32();
7992             TCGv_i32 tcg_res = tcg_temp_new_i32();
7993
7994             read_vec_element_i32(s, tcg_op, rn, pass, is_scalar ? size : MO_32);
7995
7996             switch (opcode) {
7997             case 0x0: /* MLA */
7998             case 0x4: /* MLS */
7999             case 0x8: /* MUL */
8000             {
8001                 static NeonGenTwoOpFn * const fns[2][2] = {
8002                     { gen_helper_neon_add_u16, gen_helper_neon_sub_u16 },
8003                     { tcg_gen_add_i32, tcg_gen_sub_i32 },
8004                 };
8005                 NeonGenTwoOpFn *genfn;
8006                 bool is_sub = opcode == 0x4;
8007
8008                 if (size == 1) {
8009                     gen_helper_neon_mul_u16(tcg_res, tcg_op, tcg_idx);
8010                 } else {
8011                     tcg_gen_mul_i32(tcg_res, tcg_op, tcg_idx);
8012                 }
8013                 if (opcode == 0x8) {
8014                     break;
8015                 }
8016                 read_vec_element_i32(s, tcg_op, rd, pass, MO_32);
8017                 genfn = fns[size - 1][is_sub];
8018                 genfn(tcg_res, tcg_op, tcg_res);
8019                 break;
8020             }
8021             case 0x5: /* FMLS */
8022                 /* As usual for ARM, separate negation for fused multiply-add */
8023                 gen_helper_vfp_negs(tcg_op, tcg_op);
8024                 /* fall through */
8025             case 0x1: /* FMLA */
8026                 read_vec_element_i32(s, tcg_res, rd, pass, MO_32);
8027                 gen_helper_vfp_muladds(tcg_res, tcg_op, tcg_idx, tcg_res, fpst);
8028                 break;
8029             case 0x9: /* FMUL, FMULX */
8030                 if (u) {
8031                     gen_helper_vfp_mulxs(tcg_res, tcg_op, tcg_idx, fpst);
8032                 } else {
8033                     gen_helper_vfp_muls(tcg_res, tcg_op, tcg_idx, fpst);
8034                 }
8035                 break;
8036             case 0xc: /* SQDMULH */
8037                 if (size == 1) {
8038                     gen_helper_neon_qdmulh_s16(tcg_res, cpu_env,
8039                                                tcg_op, tcg_idx);
8040                 } else {
8041                     gen_helper_neon_qdmulh_s32(tcg_res, cpu_env,
8042                                                tcg_op, tcg_idx);
8043                 }
8044                 break;
8045             case 0xd: /* SQRDMULH */
8046                 if (size == 1) {
8047                     gen_helper_neon_qrdmulh_s16(tcg_res, cpu_env,
8048                                                 tcg_op, tcg_idx);
8049                 } else {
8050                     gen_helper_neon_qrdmulh_s32(tcg_res, cpu_env,
8051                                                 tcg_op, tcg_idx);
8052                 }
8053                 break;
8054             default:
8055                 g_assert_not_reached();
8056             }
8057
8058             if (is_scalar) {
8059                 write_fp_sreg(s, rd, tcg_res);
8060             } else {
8061                 write_vec_element_i32(s, tcg_res, rd, pass, MO_32);
8062             }
8063
8064             tcg_temp_free_i32(tcg_op);
8065             tcg_temp_free_i32(tcg_res);
8066         }
8067
8068         tcg_temp_free_i32(tcg_idx);
8069
8070         if (!is_q) {
8071             clear_vec_high(s, rd);
8072         }
8073     } else {
8074         /* long ops: 16x16->32 or 32x32->64 */
8075         TCGv_i64 tcg_res[2];
8076         int pass;
8077         bool satop = extract32(opcode, 0, 1);
8078         TCGMemOp memop = MO_32;
8079
8080         if (satop || !u) {
8081             memop |= MO_SIGN;
8082         }
8083
8084         if (size == 2) {
8085             TCGv_i64 tcg_idx = tcg_temp_new_i64();
8086
8087             read_vec_element(s, tcg_idx, rm, index, memop);
8088
8089             for (pass = 0; pass < (is_scalar ? 1 : 2); pass++) {
8090                 TCGv_i64 tcg_op = tcg_temp_new_i64();
8091                 TCGv_i64 tcg_passres;
8092                 int passelt;
8093
8094                 if (is_scalar) {
8095                     passelt = 0;
8096                 } else {
8097                     passelt = pass + (is_q * 2);
8098                 }
8099
8100                 read_vec_element(s, tcg_op, rn, passelt, memop);
8101
8102                 tcg_res[pass] = tcg_temp_new_i64();
8103
8104                 if (opcode == 0xa || opcode == 0xb) {
8105                     /* Non-accumulating ops */
8106                     tcg_passres = tcg_res[pass];
8107                 } else {
8108                     tcg_passres = tcg_temp_new_i64();
8109                 }
8110
8111                 tcg_gen_mul_i64(tcg_passres, tcg_op, tcg_idx);
8112                 tcg_temp_free_i64(tcg_op);
8113
8114                 if (satop) {
8115                     /* saturating, doubling */
8116                     gen_helper_neon_addl_saturate_s64(tcg_passres, cpu_env,
8117                                                       tcg_passres, tcg_passres);
8118                 }
8119
8120                 if (opcode == 0xa || opcode == 0xb) {
8121                     continue;
8122                 }
8123
8124                 /* Accumulating op: handle accumulate step */
8125                 read_vec_element(s, tcg_res[pass], rd, pass, MO_64);
8126
8127                 switch (opcode) {
8128                 case 0x2: /* SMLAL, SMLAL2, UMLAL, UMLAL2 */
8129                     tcg_gen_add_i64(tcg_res[pass], tcg_res[pass], tcg_passres);
8130                     break;
8131                 case 0x6: /* SMLSL, SMLSL2, UMLSL, UMLSL2 */
8132                     tcg_gen_sub_i64(tcg_res[pass], tcg_res[pass], tcg_passres);
8133                     break;
8134                 case 0x7: /* SQDMLSL, SQDMLSL2 */
8135                     tcg_gen_neg_i64(tcg_passres, tcg_passres);
8136                     /* fall through */
8137                 case 0x3: /* SQDMLAL, SQDMLAL2 */
8138                     gen_helper_neon_addl_saturate_s64(tcg_res[pass], cpu_env,
8139                                                       tcg_res[pass],
8140                                                       tcg_passres);
8141                     break;
8142                 default:
8143                     g_assert_not_reached();
8144                 }
8145                 tcg_temp_free_i64(tcg_passres);
8146             }
8147             tcg_temp_free_i64(tcg_idx);
8148
8149             if (is_scalar) {
8150                 clear_vec_high(s, rd);
8151             }
8152         } else {
8153             TCGv_i32 tcg_idx = tcg_temp_new_i32();
8154
8155             assert(size == 1);
8156             read_vec_element_i32(s, tcg_idx, rm, index, size);
8157
8158             if (!is_scalar) {
8159                 /* The simplest way to handle the 16x16 indexed ops is to
8160                  * duplicate the index into both halves of the 32 bit tcg_idx
8161                  * and then use the usual Neon helpers.
8162                  */
8163                 tcg_gen_deposit_i32(tcg_idx, tcg_idx, tcg_idx, 16, 16);
8164             }
8165
8166             for (pass = 0; pass < (is_scalar ? 1 : 2); pass++) {
8167                 TCGv_i32 tcg_op = tcg_temp_new_i32();
8168                 TCGv_i64 tcg_passres;
8169
8170                 if (is_scalar) {
8171                     read_vec_element_i32(s, tcg_op, rn, pass, size);
8172                 } else {
8173                     read_vec_element_i32(s, tcg_op, rn,
8174                                          pass + (is_q * 2), MO_32);
8175                 }
8176
8177                 tcg_res[pass] = tcg_temp_new_i64();
8178
8179                 if (opcode == 0xa || opcode == 0xb) {
8180                     /* Non-accumulating ops */
8181                     tcg_passres = tcg_res[pass];
8182                 } else {
8183                     tcg_passres = tcg_temp_new_i64();
8184                 }
8185
8186                 if (memop & MO_SIGN) {
8187                     gen_helper_neon_mull_s16(tcg_passres, tcg_op, tcg_idx);
8188                 } else {
8189                     gen_helper_neon_mull_u16(tcg_passres, tcg_op, tcg_idx);
8190                 }
8191                 if (satop) {
8192                     gen_helper_neon_addl_saturate_s32(tcg_passres, cpu_env,
8193                                                       tcg_passres, tcg_passres);
8194                 }
8195                 tcg_temp_free_i32(tcg_op);
8196
8197                 if (opcode == 0xa || opcode == 0xb) {
8198                     continue;
8199                 }
8200
8201                 /* Accumulating op: handle accumulate step */
8202                 read_vec_element(s, tcg_res[pass], rd, pass, MO_64);
8203
8204                 switch (opcode) {
8205                 case 0x2: /* SMLAL, SMLAL2, UMLAL, UMLAL2 */
8206                     gen_helper_neon_addl_u32(tcg_res[pass], tcg_res[pass],
8207                                              tcg_passres);
8208                     break;
8209                 case 0x6: /* SMLSL, SMLSL2, UMLSL, UMLSL2 */
8210                     gen_helper_neon_subl_u32(tcg_res[pass], tcg_res[pass],
8211                                              tcg_passres);
8212                     break;
8213                 case 0x7: /* SQDMLSL, SQDMLSL2 */
8214                     gen_helper_neon_negl_u32(tcg_passres, tcg_passres);
8215                     /* fall through */
8216                 case 0x3: /* SQDMLAL, SQDMLAL2 */
8217                     gen_helper_neon_addl_saturate_s32(tcg_res[pass], cpu_env,
8218                                                       tcg_res[pass],
8219                                                       tcg_passres);
8220                     break;
8221                 default:
8222                     g_assert_not_reached();
8223                 }
8224                 tcg_temp_free_i64(tcg_passres);
8225             }
8226             tcg_temp_free_i32(tcg_idx);
8227
8228             if (is_scalar) {
8229                 tcg_gen_ext32u_i64(tcg_res[0], tcg_res[0]);
8230             }
8231         }
8232
8233         if (is_scalar) {
8234             tcg_res[1] = tcg_const_i64(0);
8235         }
8236
8237         for (pass = 0; pass < 2; pass++) {
8238             write_vec_element(s, tcg_res[pass], rd, pass, MO_64);
8239             tcg_temp_free_i64(tcg_res[pass]);
8240         }
8241     }
8242
8243     if (!TCGV_IS_UNUSED_PTR(fpst)) {
8244         tcg_temp_free_ptr(fpst);
8245     }
8246 }
8247
8248 /* C3.6.19 Crypto AES
8249  *  31             24 23  22 21       17 16    12 11 10 9    5 4    0
8250  * +-----------------+------+-----------+--------+-----+------+------+
8251  * | 0 1 0 0 1 1 1 0 | size | 1 0 1 0 0 | opcode | 1 0 |  Rn  |  Rd  |
8252  * +-----------------+------+-----------+--------+-----+------+------+
8253  */
8254 static void disas_crypto_aes(DisasContext *s, uint32_t insn)
8255 {
8256     unsupported_encoding(s, insn);
8257 }
8258
8259 /* C3.6.20 Crypto three-reg SHA
8260  *  31             24 23  22  21 20  16  15 14    12 11 10 9    5 4    0
8261  * +-----------------+------+---+------+---+--------+-----+------+------+
8262  * | 0 1 0 1 1 1 1 0 | size | 0 |  Rm  | 0 | opcode | 0 0 |  Rn  |  Rd  |
8263  * +-----------------+------+---+------+---+--------+-----+------+------+
8264  */
8265 static void disas_crypto_three_reg_sha(DisasContext *s, uint32_t insn)
8266 {
8267     unsupported_encoding(s, insn);
8268 }
8269
8270 /* C3.6.21 Crypto two-reg SHA
8271  *  31             24 23  22 21       17 16    12 11 10 9    5 4    0
8272  * +-----------------+------+-----------+--------+-----+------+------+
8273  * | 0 1 0 1 1 1 1 0 | size | 1 0 1 0 0 | opcode | 1 0 |  Rn  |  Rd  |
8274  * +-----------------+------+-----------+--------+-----+------+------+
8275  */
8276 static void disas_crypto_two_reg_sha(DisasContext *s, uint32_t insn)
8277 {
8278     unsupported_encoding(s, insn);
8279 }
8280
8281 /* C3.6 Data processing - SIMD, inc Crypto
8282  *
8283  * As the decode gets a little complex we are using a table based
8284  * approach for this part of the decode.
8285  */
8286 static const AArch64DecodeTable data_proc_simd[] = {
8287     /* pattern  ,  mask     ,  fn                        */
8288     { 0x0e200400, 0x9f200400, disas_simd_three_reg_same },
8289     { 0x0e200000, 0x9f200c00, disas_simd_three_reg_diff },
8290     { 0x0e200800, 0x9f3e0c00, disas_simd_two_reg_misc },
8291     { 0x0e300800, 0x9f3e0c00, disas_simd_across_lanes },
8292     { 0x0e000400, 0x9fe08400, disas_simd_copy },
8293     { 0x0f000000, 0x9f000400, disas_simd_indexed }, /* vector indexed */
8294     /* simd_mod_imm decode is a subset of simd_shift_imm, so must precede it */
8295     { 0x0f000400, 0x9ff80400, disas_simd_mod_imm },
8296     { 0x0f000400, 0x9f800400, disas_simd_shift_imm },
8297     { 0x0e000000, 0xbf208c00, disas_simd_tb },
8298     { 0x0e000800, 0xbf208c00, disas_simd_zip_trn },
8299     { 0x2e000000, 0xbf208400, disas_simd_ext },
8300     { 0x5e200400, 0xdf200400, disas_simd_scalar_three_reg_same },
8301     { 0x5e200000, 0xdf200c00, disas_simd_scalar_three_reg_diff },
8302     { 0x5e200800, 0xdf3e0c00, disas_simd_scalar_two_reg_misc },
8303     { 0x5e300800, 0xdf3e0c00, disas_simd_scalar_pairwise },
8304     { 0x5e000400, 0xdfe08400, disas_simd_scalar_copy },
8305     { 0x5f000000, 0xdf000400, disas_simd_indexed }, /* scalar indexed */
8306     { 0x5f000400, 0xdf800400, disas_simd_scalar_shift_imm },
8307     { 0x4e280800, 0xff3e0c00, disas_crypto_aes },
8308     { 0x5e000000, 0xff208c00, disas_crypto_three_reg_sha },
8309     { 0x5e280800, 0xff3e0c00, disas_crypto_two_reg_sha },
8310     { 0x00000000, 0x00000000, NULL }
8311 };
8312
8313 static void disas_data_proc_simd(DisasContext *s, uint32_t insn)
8314 {
8315     /* Note that this is called with all non-FP cases from
8316      * table C3-6 so it must UNDEF for entries not specifically
8317      * allocated to instructions in that table.
8318      */
8319     AArch64DecodeFn *fn = lookup_disas_fn(&data_proc_simd[0], insn);
8320     if (fn) {
8321         fn(s, insn);
8322     } else {
8323         unallocated_encoding(s);
8324     }
8325 }
8326
8327 /* C3.6 Data processing - SIMD and floating point */
8328 static void disas_data_proc_simd_fp(DisasContext *s, uint32_t insn)
8329 {
8330     if (extract32(insn, 28, 1) == 1 && extract32(insn, 30, 1) == 0) {
8331         disas_data_proc_fp(s, insn);
8332     } else {
8333         /* SIMD, including crypto */
8334         disas_data_proc_simd(s, insn);
8335     }
8336 }
8337
8338 /* C3.1 A64 instruction index by encoding */
8339 static void disas_a64_insn(CPUARMState *env, DisasContext *s)
8340 {
8341     uint32_t insn;
8342
8343     insn = arm_ldl_code(env, s->pc, s->bswap_code);
8344     s->insn = insn;
8345     s->pc += 4;
8346
8347     switch (extract32(insn, 25, 4)) {
8348     case 0x0: case 0x1: case 0x2: case 0x3: /* UNALLOCATED */
8349         unallocated_encoding(s);
8350         break;
8351     case 0x8: case 0x9: /* Data processing - immediate */
8352         disas_data_proc_imm(s, insn);
8353         break;
8354     case 0xa: case 0xb: /* Branch, exception generation and system insns */
8355         disas_b_exc_sys(s, insn);
8356         break;
8357     case 0x4:
8358     case 0x6:
8359     case 0xc:
8360     case 0xe:      /* Loads and stores */
8361         disas_ldst(s, insn);
8362         break;
8363     case 0x5:
8364     case 0xd:      /* Data processing - register */
8365         disas_data_proc_reg(s, insn);
8366         break;
8367     case 0x7:
8368     case 0xf:      /* Data processing - SIMD and floating point */
8369         disas_data_proc_simd_fp(s, insn);
8370         break;
8371     default:
8372         assert(FALSE); /* all 15 cases should be handled above */
8373         break;
8374     }
8375
8376     /* if we allocated any temporaries, free them here */
8377     free_tmp_a64(s);
8378 }
8379
8380 void gen_intermediate_code_internal_a64(ARMCPU *cpu,
8381                                         TranslationBlock *tb,
8382                                         bool search_pc)
8383 {
8384     CPUState *cs = CPU(cpu);
8385     CPUARMState *env = &cpu->env;
8386     DisasContext dc1, *dc = &dc1;
8387     CPUBreakpoint *bp;
8388     uint16_t *gen_opc_end;
8389     int j, lj;
8390     target_ulong pc_start;
8391     target_ulong next_page_start;
8392     int num_insns;
8393     int max_insns;
8394
8395     pc_start = tb->pc;
8396
8397     dc->tb = tb;
8398
8399     gen_opc_end = tcg_ctx.gen_opc_buf + OPC_MAX_SIZE;
8400
8401     dc->is_jmp = DISAS_NEXT;
8402     dc->pc = pc_start;
8403     dc->singlestep_enabled = cs->singlestep_enabled;
8404     dc->condjmp = 0;
8405
8406     dc->aarch64 = 1;
8407     dc->thumb = 0;
8408     dc->bswap_code = 0;
8409     dc->condexec_mask = 0;
8410     dc->condexec_cond = 0;
8411 #if !defined(CONFIG_USER_ONLY)
8412     dc->user = 0;
8413 #endif
8414     dc->vfp_enabled = 0;
8415     dc->vec_len = 0;
8416     dc->vec_stride = 0;
8417     dc->cp_regs = cpu->cp_regs;
8418     dc->current_pl = arm_current_pl(env);
8419
8420     init_tmp_a64_array(dc);
8421
8422     next_page_start = (pc_start & TARGET_PAGE_MASK) + TARGET_PAGE_SIZE;
8423     lj = -1;
8424     num_insns = 0;
8425     max_insns = tb->cflags & CF_COUNT_MASK;
8426     if (max_insns == 0) {
8427         max_insns = CF_COUNT_MASK;
8428     }
8429
8430     gen_tb_start();
8431
8432     tcg_clear_temp_count();
8433
8434     do {
8435         if (unlikely(!QTAILQ_EMPTY(&env->breakpoints))) {
8436             QTAILQ_FOREACH(bp, &env->breakpoints, entry) {
8437                 if (bp->pc == dc->pc) {
8438                     gen_exception_insn(dc, 0, EXCP_DEBUG);
8439                     /* Advance PC so that clearing the breakpoint will
8440                        invalidate this TB.  */
8441                     dc->pc += 2;
8442                     goto done_generating;
8443                 }
8444             }
8445         }
8446
8447         if (search_pc) {
8448             j = tcg_ctx.gen_opc_ptr - tcg_ctx.gen_opc_buf;
8449             if (lj < j) {
8450                 lj++;
8451                 while (lj < j) {
8452                     tcg_ctx.gen_opc_instr_start[lj++] = 0;
8453                 }
8454             }
8455             tcg_ctx.gen_opc_pc[lj] = dc->pc;
8456             tcg_ctx.gen_opc_instr_start[lj] = 1;
8457             tcg_ctx.gen_opc_icount[lj] = num_insns;
8458         }
8459
8460         if (num_insns + 1 == max_insns && (tb->cflags & CF_LAST_IO)) {
8461             gen_io_start();
8462         }
8463
8464         if (unlikely(qemu_loglevel_mask(CPU_LOG_TB_OP | CPU_LOG_TB_OP_OPT))) {
8465             tcg_gen_debug_insn_start(dc->pc);
8466         }
8467
8468         disas_a64_insn(env, dc);
8469
8470         if (tcg_check_temp_count()) {
8471             fprintf(stderr, "TCG temporary leak before "TARGET_FMT_lx"\n",
8472                     dc->pc);
8473         }
8474
8475         /* Translation stops when a conditional branch is encountered.
8476          * Otherwise the subsequent code could get translated several times.
8477          * Also stop translation when a page boundary is reached.  This
8478          * ensures prefetch aborts occur at the right place.
8479          */
8480         num_insns++;
8481     } while (!dc->is_jmp && tcg_ctx.gen_opc_ptr < gen_opc_end &&
8482              !cs->singlestep_enabled &&
8483              !singlestep &&
8484              dc->pc < next_page_start &&
8485              num_insns < max_insns);
8486
8487     if (tb->cflags & CF_LAST_IO) {
8488         gen_io_end();
8489     }
8490
8491     if (unlikely(cs->singlestep_enabled) && dc->is_jmp != DISAS_EXC) {
8492         /* Note that this means single stepping WFI doesn't halt the CPU.
8493          * For conditional branch insns this is harmless unreachable code as
8494          * gen_goto_tb() has already handled emitting the debug exception
8495          * (and thus a tb-jump is not possible when singlestepping).
8496          */
8497         assert(dc->is_jmp != DISAS_TB_JUMP);
8498         if (dc->is_jmp != DISAS_JUMP) {
8499             gen_a64_set_pc_im(dc->pc);
8500         }
8501         gen_exception(EXCP_DEBUG);
8502     } else {
8503         switch (dc->is_jmp) {
8504         case DISAS_NEXT:
8505             gen_goto_tb(dc, 1, dc->pc);
8506             break;
8507         default:
8508         case DISAS_UPDATE:
8509             gen_a64_set_pc_im(dc->pc);
8510             /* fall through */
8511         case DISAS_JUMP:
8512             /* indicate that the hash table must be used to find the next TB */
8513             tcg_gen_exit_tb(0);
8514             break;
8515         case DISAS_TB_JUMP:
8516         case DISAS_EXC:
8517         case DISAS_SWI:
8518             break;
8519         case DISAS_WFI:
8520             /* This is a special case because we don't want to just halt the CPU
8521              * if trying to debug across a WFI.
8522              */
8523             gen_helper_wfi(cpu_env);
8524             break;
8525         }
8526     }
8527
8528 done_generating:
8529     gen_tb_end(tb, num_insns);
8530     *tcg_ctx.gen_opc_ptr = INDEX_op_end;
8531
8532 #ifdef DEBUG_DISAS
8533     if (qemu_loglevel_mask(CPU_LOG_TB_IN_ASM)) {
8534         qemu_log("----------------\n");
8535         qemu_log("IN: %s\n", lookup_symbol(pc_start));
8536         log_target_disas(env, pc_start, dc->pc - pc_start,
8537                          4 | (dc->bswap_code << 1));
8538         qemu_log("\n");
8539     }
8540 #endif
8541     if (search_pc) {
8542         j = tcg_ctx.gen_opc_ptr - tcg_ctx.gen_opc_buf;
8543         lj++;
8544         while (lj <= j) {
8545             tcg_ctx.gen_opc_instr_start[lj++] = 0;
8546         }
8547     } else {
8548         tb->size = dc->pc - pc_start;
8549         tb->icount = num_insns;
8550     }
8551 }
This page took 0.495938 seconds and 4 git commands to generate.