]> Git Repo - binutils.git/blob - gdb/gdbthread.h
gdb: remove SYMBOL_CLASS macro, add getter
[binutils.git] / gdb / gdbthread.h
1 /* Multi-process/thread control defs for GDB, the GNU debugger.
2    Copyright (C) 1987-2022 Free Software Foundation, Inc.
3    Contributed by Lynx Real-Time Systems, Inc.  Los Gatos, CA.
4    
5
6    This file is part of GDB.
7
8    This program is free software; you can redistribute it and/or modify
9    it under the terms of the GNU General Public License as published by
10    the Free Software Foundation; either version 3 of the License, or
11    (at your option) any later version.
12
13    This program is distributed in the hope that it will be useful,
14    but WITHOUT ANY WARRANTY; without even the implied warranty of
15    MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the
16    GNU General Public License for more details.
17
18    You should have received a copy of the GNU General Public License
19    along with this program.  If not, see <http://www.gnu.org/licenses/>.  */
20
21 #ifndef GDBTHREAD_H
22 #define GDBTHREAD_H
23
24 struct symtab;
25
26 #include "breakpoint.h"
27 #include "frame.h"
28 #include "ui-out.h"
29 #include "btrace.h"
30 #include "target/waitstatus.h"
31 #include "cli/cli-utils.h"
32 #include "gdbsupport/refcounted-object.h"
33 #include "gdbsupport/common-gdbthread.h"
34 #include "gdbsupport/forward-scope-exit.h"
35 #include "displaced-stepping.h"
36 #include "gdbsupport/intrusive_list.h"
37
38 struct inferior;
39 struct process_stratum_target;
40
41 /* When true, print debug messages related to GDB thread creation and
42    deletion.  */
43
44 extern bool debug_threads;
45
46 /* Print a "threads" debug statement.  */
47
48 #define threads_debug_printf(fmt, ...) \
49   debug_prefixed_printf_cond (debug_threads, "threads", fmt, ##__VA_ARGS__)
50
51 /* Frontend view of the thread state.  Possible extensions: stepping,
52    finishing, until(ling),...
53
54    NOTE: Since the thread state is not a boolean, most times, you do
55    not want to check it with negation.  If you really want to check if
56    the thread is stopped,
57
58     use (good):
59
60      if (tp->state == THREAD_STOPPED)
61
62     instead of (bad):
63
64      if (tp->state != THREAD_RUNNING)
65
66    The latter is also true for exited threads, most likely not what
67    you want.  */
68 enum thread_state
69 {
70   /* In the frontend's perpective, the thread is stopped.  */
71   THREAD_STOPPED,
72
73   /* In the frontend's perpective, the thread is running.  */
74   THREAD_RUNNING,
75
76   /* The thread is listed, but known to have exited.  We keep it
77      listed (but not visible) until it's safe to delete it.  */
78   THREAD_EXITED,
79 };
80
81 /* STEP_OVER_ALL means step over all subroutine calls.
82    STEP_OVER_UNDEBUGGABLE means step over calls to undebuggable functions.
83    STEP_OVER_NONE means don't step over any subroutine calls.  */
84
85 enum step_over_calls_kind
86   {
87     STEP_OVER_NONE,
88     STEP_OVER_ALL,
89     STEP_OVER_UNDEBUGGABLE
90   };
91
92 /* Inferior thread specific part of `struct infcall_control_state'.
93
94    Inferior process counterpart is `struct inferior_control_state'.  */
95
96 struct thread_control_state
97 {
98   /* User/external stepping state.  */
99
100   /* Step-resume or longjmp-resume breakpoint.  */
101   struct breakpoint *step_resume_breakpoint = nullptr;
102
103   /* Exception-resume breakpoint.  */
104   struct breakpoint *exception_resume_breakpoint = nullptr;
105
106   /* Breakpoints used for software single stepping.  Plural, because
107      it may have multiple locations.  E.g., if stepping over a
108      conditional branch instruction we can't decode the condition for,
109      we'll need to put a breakpoint at the branch destination, and
110      another at the instruction after the branch.  */
111   struct breakpoint *single_step_breakpoints = nullptr;
112
113   /* Range to single step within.
114
115      If this is nonzero, respond to a single-step signal by continuing
116      to step if the pc is in this range.
117
118      If step_range_start and step_range_end are both 1, it means to
119      step for a single instruction (FIXME: it might clean up
120      wait_for_inferior in a minor way if this were changed to the
121      address of the instruction and that address plus one.  But maybe
122      not).  */
123   CORE_ADDR step_range_start = 0;       /* Inclusive */
124   CORE_ADDR step_range_end = 0;         /* Exclusive */
125
126   /* Function the thread was in as of last it started stepping.  */
127   struct symbol *step_start_function = nullptr;
128
129   /* If GDB issues a target step request, and this is nonzero, the
130      target should single-step this thread once, and then continue
131      single-stepping it without GDB core involvement as long as the
132      thread stops in the step range above.  If this is zero, the
133      target should ignore the step range, and only issue one single
134      step.  */
135   int may_range_step = 0;
136
137   /* Stack frame address as of when stepping command was issued.
138      This is how we know when we step into a subroutine call, and how
139      to set the frame for the breakpoint used to step out.  */
140   struct frame_id step_frame_id {};
141
142   /* Similarly, the frame ID of the underlying stack frame (skipping
143      any inlined frames).  */
144   struct frame_id step_stack_frame_id {};
145
146   /* True if the the thread is presently stepping over a breakpoint or
147      a watchpoint, either with an inline step over or a displaced (out
148      of line) step, and we're now expecting it to report a trap for
149      the finished single step.  */
150   int trap_expected = 0;
151
152   /* Nonzero if the thread is being proceeded for a "finish" command
153      or a similar situation when return value should be printed.  */
154   int proceed_to_finish = 0;
155
156   /* Nonzero if the thread is being proceeded for an inferior function
157      call.  */
158   int in_infcall = 0;
159
160   enum step_over_calls_kind step_over_calls = STEP_OVER_NONE;
161
162   /* Nonzero if stopped due to a step command.  */
163   int stop_step = 0;
164
165   /* Chain containing status of breakpoint(s) the thread stopped
166      at.  */
167   bpstat *stop_bpstat = nullptr;
168
169   /* Whether the command that started the thread was a stepping
170      command.  This is used to decide whether "set scheduler-locking
171      step" behaves like "on" or "off".  */
172   int stepping_command = 0;
173 };
174
175 /* Inferior thread specific part of `struct infcall_suspend_state'.  */
176
177 struct thread_suspend_state
178 {
179   /* Last signal that the inferior received (why it stopped).  When
180      the thread is resumed, this signal is delivered.  Note: the
181      target should not check whether the signal is in pass state,
182      because the signal may have been explicitly passed with the
183      "signal" command, which overrides "handle nopass".  If the signal
184      should be suppressed, the core will take care of clearing this
185      before the target is resumed.  */
186   enum gdb_signal stop_signal = GDB_SIGNAL_0;
187
188   /* The reason the thread last stopped, if we need to track it
189      (breakpoint, watchpoint, etc.)  */
190   enum target_stop_reason stop_reason = TARGET_STOPPED_BY_NO_REASON;
191
192   /* The waitstatus for this thread's last event.  */
193   struct target_waitstatus waitstatus;
194   /* If true WAITSTATUS hasn't been handled yet.  */
195   int waitstatus_pending_p = 0;
196
197   /* Record the pc of the thread the last time it stopped.  (This is
198      not the current thread's PC as that may have changed since the
199      last stop, e.g., "return" command, or "p $pc = 0xf000").
200
201      - If the thread's PC has not changed since the thread last
202        stopped, then proceed skips a breakpoint at the current PC,
203        otherwise we let the thread run into the breakpoint.
204
205      - If the thread has an unprocessed event pending, as indicated by
206        waitstatus_pending_p, this is used in coordination with
207        stop_reason: if the thread's PC has changed since the thread
208        last stopped, a pending breakpoint waitstatus is discarded.
209
210      - If the thread is running, then this field has its value removed by
211        calling stop_pc.reset() (see thread_info::set_executing()).
212        Attempting to read a gdb::optional with no value is undefined
213        behaviour and will trigger an assertion error when _GLIBCXX_DEBUG is
214        defined, which should make error easier to track down.  */
215   gdb::optional<CORE_ADDR> stop_pc;
216 };
217
218 /* Base class for target-specific thread data.  */
219 struct private_thread_info
220 {
221   virtual ~private_thread_info () = 0;
222 };
223
224 /* Threads are intrusively refcounted objects.  Being the
225    user-selected thread is normally considered an implicit strong
226    reference and is thus not accounted in the refcount, unlike
227    inferior objects.  This is necessary, because there's no "current
228    thread" pointer.  Instead the current thread is inferred from the
229    inferior_ptid global.  However, when GDB needs to remember the
230    selected thread to later restore it, GDB bumps the thread object's
231    refcount, to prevent something deleting the thread object before
232    reverting back (e.g., due to a "kill" command).  If the thread
233    meanwhile exits before being re-selected, then the thread object is
234    left listed in the thread list, but marked with state
235    THREAD_EXITED.  (See scoped_restore_current_thread and
236    delete_thread).  All other thread references are considered weak
237    references.  Placing a thread in the thread list is an implicit
238    strong reference, and is thus not accounted for in the thread's
239    refcount.
240
241    The intrusive_list_node base links threads in a per-inferior list.  */
242
243 class thread_info : public refcounted_object,
244                     public intrusive_list_node<thread_info>
245 {
246 public:
247   explicit thread_info (inferior *inf, ptid_t ptid);
248   ~thread_info ();
249
250   bool deletable () const;
251
252   /* Mark this thread as running and notify observers.  */
253   void set_running (bool running);
254
255   ptid_t ptid;                  /* "Actual process id";
256                                     In fact, this may be overloaded with 
257                                     kernel thread id, etc.  */
258
259   /* Each thread has two GDB IDs.
260
261      a) The thread ID (Id).  This consists of the pair of:
262
263         - the number of the thread's inferior and,
264
265         - the thread's thread number in its inferior, aka, the
266           per-inferior thread number.  This number is unique in the
267           inferior but not unique between inferiors.
268
269      b) The global ID (GId).  This is a a single integer unique
270         between all inferiors.
271
272      E.g.:
273
274       (gdb) info threads -gid
275         Id    GId   Target Id   Frame
276       * 1.1   1     Thread A    0x16a09237 in foo () at foo.c:10
277         1.2   3     Thread B    0x15ebc6ed in bar () at foo.c:20
278         1.3   5     Thread C    0x15ebc6ed in bar () at foo.c:20
279         2.1   2     Thread A    0x16a09237 in foo () at foo.c:10
280         2.2   4     Thread B    0x15ebc6ed in bar () at foo.c:20
281         2.3   6     Thread C    0x15ebc6ed in bar () at foo.c:20
282
283      Above, both inferiors 1 and 2 have threads numbered 1-3, but each
284      thread has its own unique global ID.  */
285
286   /* The thread's global GDB thread number.  This is exposed to MI,
287      Python/Scheme, visible with "info threads -gid", and is also what
288      the $_gthread convenience variable is bound to.  */
289   int global_num;
290
291   /* The per-inferior thread number.  This is unique in the inferior
292      the thread belongs to, but not unique between inferiors.  This is
293      what the $_thread convenience variable is bound to.  */
294   int per_inf_num;
295
296   /* The inferior this thread belongs to.  */
297   struct inferior *inf;
298
299   /* The user-given name of the thread.
300
301      Returns nullptr if the thread does not have a user-given name.  */
302   const char *name () const
303   {
304     return m_name.get ();
305   }
306
307   /* Set the user-given name of the thread.
308
309      Pass nullptr to clear the name.  */
310   void set_name (gdb::unique_xmalloc_ptr<char> name)
311   {
312     m_name = std::move (name);
313   }
314
315   bool executing () const
316   { return m_executing; }
317
318   /* Set the thread's 'm_executing' field from EXECUTING, and if EXECUTING
319      is true also clears the thread's stop_pc.  */
320   void set_executing (bool executing);
321
322   bool resumed () const
323   { return m_resumed; }
324
325   /* Set the thread's 'm_resumed' field from RESUMED.  The thread may also
326      be added to (when RESUMED is true), or removed from (when RESUMED is
327      false), the list of threads with a pending wait status.  */
328   void set_resumed (bool resumed);
329
330   /* Frontend view of the thread state.  Note that the THREAD_RUNNING/
331      THREAD_STOPPED states are different from EXECUTING.  When the
332      thread is stopped internally while handling an internal event,
333      like a software single-step breakpoint, EXECUTING will be false,
334      but STATE will still be THREAD_RUNNING.  */
335   enum thread_state state = THREAD_STOPPED;
336
337   /* State of GDB control of inferior thread execution.
338      See `struct thread_control_state'.  */
339   thread_control_state control;
340
341   /* Save M_SUSPEND to SUSPEND.  */
342
343   void save_suspend_to (thread_suspend_state &suspend) const
344   {
345     suspend = m_suspend;
346   }
347
348   /* Restore M_SUSPEND from SUSPEND.  */
349
350   void restore_suspend_from (const thread_suspend_state &suspend)
351   {
352     m_suspend = suspend;
353   }
354
355   /* Return this thread's stop PC.  This should only be called when it is
356      known that stop_pc has a value.  If this function is being used in a
357      situation where a thread may not have had a stop_pc assigned, then
358      stop_pc_p() can be used to check if the stop_pc is defined.  */
359
360   CORE_ADDR stop_pc () const
361   {
362     gdb_assert (m_suspend.stop_pc.has_value ());
363     return *m_suspend.stop_pc;
364   }
365
366   /* Set this thread's stop PC.  */
367
368   void set_stop_pc (CORE_ADDR stop_pc)
369   {
370     m_suspend.stop_pc = stop_pc;
371   }
372
373   /* Remove the stop_pc stored on this thread.  */
374
375   void clear_stop_pc ()
376   {
377     m_suspend.stop_pc.reset ();
378   }
379
380   /* Return true if this thread has a cached stop pc value, otherwise
381      return false.  */
382
383   bool stop_pc_p () const
384   {
385     return m_suspend.stop_pc.has_value ();
386   }
387
388   /* Return true if this thread has a pending wait status.  */
389
390   bool has_pending_waitstatus () const
391   {
392     return m_suspend.waitstatus_pending_p;
393   }
394
395   /* Get this thread's pending wait status.
396
397      May only be called if has_pending_waitstatus returns true.  */
398
399   const target_waitstatus &pending_waitstatus () const
400   {
401     gdb_assert (this->has_pending_waitstatus ());
402
403     return m_suspend.waitstatus;
404   }
405
406   /* Set this thread's pending wait status.
407
408      May only be called if has_pending_waitstatus returns false.  */
409
410   void set_pending_waitstatus (const target_waitstatus &ws);
411
412   /* Clear this thread's pending wait status.
413
414      May only be called if has_pending_waitstatus returns true.  */
415
416   void clear_pending_waitstatus ();
417
418   /* Return this thread's stop signal.  */
419
420   gdb_signal stop_signal () const
421   {
422     return m_suspend.stop_signal;
423   }
424
425   /* Set this thread's stop signal.  */
426
427   void set_stop_signal (gdb_signal sig)
428   {
429     m_suspend.stop_signal = sig;
430   }
431
432   /* Return this thread's stop reason.  */
433
434   target_stop_reason stop_reason () const
435   {
436     return m_suspend.stop_reason;
437   }
438
439   /* Set this thread's stop reason.  */
440
441   void set_stop_reason (target_stop_reason reason)
442   {
443     m_suspend.stop_reason = reason;
444   }
445
446   int current_line = 0;
447   struct symtab *current_symtab = NULL;
448
449   /* Internal stepping state.  */
450
451   /* Record the pc of the thread the last time it was resumed.  (It
452      can't be done on stop as the PC may change since the last stop,
453      e.g., "return" command, or "p $pc = 0xf000").  This is maintained
454      by proceed and keep_going, and among other things, it's used in
455      adjust_pc_after_break to distinguish a hardware single-step
456      SIGTRAP from a breakpoint SIGTRAP.  */
457   CORE_ADDR prev_pc = 0;
458
459   /* Did we set the thread stepping a breakpoint instruction?  This is
460      used in conjunction with PREV_PC to decide whether to adjust the
461      PC.  */
462   int stepped_breakpoint = 0;
463
464   /* Should we step over breakpoint next time keep_going is called?  */
465   int stepping_over_breakpoint = 0;
466
467   /* Should we step over a watchpoint next time keep_going is called?
468      This is needed on targets with non-continuable, non-steppable
469      watchpoints.  */
470   int stepping_over_watchpoint = 0;
471
472   /* Set to TRUE if we should finish single-stepping over a breakpoint
473      after hitting the current step-resume breakpoint.  The context here
474      is that GDB is to do `next' or `step' while signal arrives.
475      When stepping over a breakpoint and signal arrives, GDB will attempt
476      to skip signal handler, so it inserts a step_resume_breakpoint at the
477      signal return address, and resume inferior.
478      step_after_step_resume_breakpoint is set to TRUE at this moment in
479      order to keep GDB in mind that there is still a breakpoint to step over
480      when GDB gets back SIGTRAP from step_resume_breakpoint.  */
481   int step_after_step_resume_breakpoint = 0;
482
483   /* Pointer to the state machine manager object that handles what is
484      left to do for the thread's execution command after the target
485      stops.  Several execution commands use it.  */
486   struct thread_fsm *thread_fsm = NULL;
487
488   /* This is used to remember when a fork or vfork event was caught by
489      a catchpoint, and thus the event is to be followed at the next
490      resume of the thread, and not immediately.  */
491   struct target_waitstatus pending_follow;
492
493   /* True if this thread has been explicitly requested to stop.  */
494   int stop_requested = 0;
495
496   /* The initiating frame of a nexting operation, used for deciding
497      which exceptions to intercept.  If it is null_frame_id no
498      bp_longjmp or bp_exception but longjmp has been caught just for
499      bp_longjmp_call_dummy.  */
500   struct frame_id initiating_frame = null_frame_id;
501
502   /* Private data used by the target vector implementation.  */
503   std::unique_ptr<private_thread_info> priv;
504
505   /* Branch trace information for this thread.  */
506   struct btrace_thread_info btrace {};
507
508   /* Flag which indicates that the stack temporaries should be stored while
509      evaluating expressions.  */
510   bool stack_temporaries_enabled = false;
511
512   /* Values that are stored as temporaries on stack while evaluating
513      expressions.  */
514   std::vector<struct value *> stack_temporaries;
515
516   /* Step-over chain.  A thread is in the step-over queue if this node is
517      linked.  */
518   intrusive_list_node<thread_info> step_over_list_node;
519
520   /* Node for list of threads that are resumed and have a pending wait status.
521
522      The list head for this is in process_stratum_target, hence all threads in
523      this list belong to that process target.  */
524   intrusive_list_node<thread_info> resumed_with_pending_wait_status_node;
525
526   /* Displaced-step state for this thread.  */
527   displaced_step_thread_state displaced_step_state;
528
529 private:
530   /* True if this thread is resumed from infrun's perspective.
531      Note that a thread can be marked both as not-executing and
532      resumed at the same time.  This happens if we try to resume a
533      thread that has a wait status pending.  We shouldn't let the
534      thread really run until that wait status has been processed, but
535      we should not process that wait status if we didn't try to let
536      the thread run.  */
537   bool m_resumed = false;
538
539   /* True means the thread is executing.  Note: this is different
540      from saying that there is an active target and we are stopped at
541      a breakpoint, for instance.  This is a real indicator whether the
542      thread is off and running.  */
543   bool m_executing = false;
544
545   /* State of inferior thread to restore after GDB is done with an inferior
546      call.  See `struct thread_suspend_state'.  */
547   thread_suspend_state m_suspend;
548
549   /* The user-given name of the thread.
550
551      Nullptr if the thread does not have a user-given name.  */
552   gdb::unique_xmalloc_ptr<char> m_name;
553 };
554
555 using thread_info_resumed_with_pending_wait_status_node
556   = intrusive_member_node<thread_info,
557                           &thread_info::resumed_with_pending_wait_status_node>;
558 using thread_info_resumed_with_pending_wait_status_list
559   = intrusive_list<thread_info,
560                    thread_info_resumed_with_pending_wait_status_node>;
561
562 /* A gdb::ref_ptr pointer to a thread_info.  */
563
564 using thread_info_ref
565   = gdb::ref_ptr<struct thread_info, refcounted_object_ref_policy>;
566
567 /* A gdb::ref_ptr pointer to an inferior.  This would ideally be in
568    inferior.h, but it can't due to header dependencies (inferior.h
569    includes gdbthread.h).  */
570
571 using inferior_ref
572   = gdb::ref_ptr<struct inferior, refcounted_object_ref_policy>;
573
574 /* Create an empty thread list, or empty the existing one.  */
575 extern void init_thread_list (void);
576
577 /* Add a thread to the thread list, print a message
578    that a new thread is found, and return the pointer to
579    the new thread.  Caller my use this pointer to 
580    initialize the private thread data.  */
581 extern struct thread_info *add_thread (process_stratum_target *targ,
582                                        ptid_t ptid);
583
584 /* Same as add_thread, but does not print a message about new
585    thread.  */
586 extern struct thread_info *add_thread_silent (process_stratum_target *targ,
587                                               ptid_t ptid);
588
589 /* Same as add_thread, and sets the private info.  */
590 extern struct thread_info *add_thread_with_info (process_stratum_target *targ,
591                                                  ptid_t ptid,
592                                                  private_thread_info *);
593
594 /* Delete thread THREAD and notify of thread exit.  If the thread is
595    currently not deletable, don't actually delete it but still tag it
596    as exited and do the notification.  */
597 extern void delete_thread (struct thread_info *thread);
598
599 /* Like delete_thread, but be quiet about it.  Used when the process
600    this thread belonged to has already exited, for example.  */
601 extern void delete_thread_silent (struct thread_info *thread);
602
603 /* Mark the thread exited, but don't delete it or remove it from the
604    inferior thread list.  */
605 extern void set_thread_exited (thread_info *tp, bool silent);
606
607 /* Delete a step_resume_breakpoint from the thread database.  */
608 extern void delete_step_resume_breakpoint (struct thread_info *);
609
610 /* Delete an exception_resume_breakpoint from the thread database.  */
611 extern void delete_exception_resume_breakpoint (struct thread_info *);
612
613 /* Delete the single-step breakpoints of thread TP, if any.  */
614 extern void delete_single_step_breakpoints (struct thread_info *tp);
615
616 /* Check if the thread has software single stepping breakpoints
617    set.  */
618 extern int thread_has_single_step_breakpoints_set (struct thread_info *tp);
619
620 /* Check whether the thread has software single stepping breakpoints
621    set at PC.  */
622 extern int thread_has_single_step_breakpoint_here (struct thread_info *tp,
623                                                    const address_space *aspace,
624                                                    CORE_ADDR addr);
625
626 /* Returns whether to show inferior-qualified thread IDs, or plain
627    thread numbers.  Inferior-qualified IDs are shown whenever we have
628    multiple inferiors, or the only inferior left has number > 1.  */
629 extern int show_inferior_qualified_tids (void);
630
631 /* Return a string version of THR's thread ID.  If there are multiple
632    inferiors, then this prints the inferior-qualifier form, otherwise
633    it only prints the thread number.  The result is stored in a
634    circular static buffer, NUMCELLS deep.  */
635 const char *print_thread_id (struct thread_info *thr);
636
637 /* Boolean test for an already-known ptid.  */
638 extern bool in_thread_list (process_stratum_target *targ, ptid_t ptid);
639
640 /* Boolean test for an already-known global thread id (GDB's homegrown
641    global id, not the system's).  */
642 extern int valid_global_thread_id (int global_id);
643
644 /* Find (non-exited) thread PTID of inferior INF.  */
645 extern thread_info *find_thread_ptid (inferior *inf, ptid_t ptid);
646
647 /* Search function to lookup a (non-exited) thread by 'ptid'.  */
648 extern struct thread_info *find_thread_ptid (process_stratum_target *targ,
649                                              ptid_t ptid);
650
651 /* Find thread by GDB global thread ID.  */
652 struct thread_info *find_thread_global_id (int global_id);
653
654 /* Find thread by thread library specific handle in inferior INF.  */
655 struct thread_info *find_thread_by_handle
656   (gdb::array_view<const gdb_byte> handle, struct inferior *inf);
657
658 /* Finds the first thread of the specified inferior.  */
659 extern struct thread_info *first_thread_of_inferior (inferior *inf);
660
661 /* Returns any thread of inferior INF, giving preference to the
662    current thread.  */
663 extern struct thread_info *any_thread_of_inferior (inferior *inf);
664
665 /* Returns any non-exited thread of inferior INF, giving preference to
666    the current thread, and to not executing threads.  */
667 extern struct thread_info *any_live_thread_of_inferior (inferior *inf);
668
669 /* Change the ptid of thread OLD_PTID to NEW_PTID.  */
670 void thread_change_ptid (process_stratum_target *targ,
671                          ptid_t old_ptid, ptid_t new_ptid);
672
673 /* Iterator function to call a user-provided callback function
674    once for each known thread.  */
675 typedef int (*thread_callback_func) (struct thread_info *, void *);
676 extern struct thread_info *iterate_over_threads (thread_callback_func, void *);
677
678 /* Pull in the internals of the inferiors/threads ranges and
679    iterators.  Must be done after struct thread_info is defined.  */
680 #include "thread-iter.h"
681
682 /* Return a range that can be used to walk over threads, with
683    range-for.
684
685    Used like this, it walks over all threads of all inferiors of all
686    targets:
687
688        for (thread_info *thr : all_threads ())
689          { .... }
690
691    FILTER_PTID can be used to filter out threads that don't match.
692    FILTER_PTID can be:
693
694    - minus_one_ptid, meaning walk all threads of all inferiors of
695      PROC_TARGET.  If PROC_TARGET is NULL, then of all targets.
696
697    - A process ptid, in which case walk all threads of the specified
698      process.  PROC_TARGET must be non-NULL in this case.
699
700    - A thread ptid, in which case walk that thread only.  PROC_TARGET
701      must be non-NULL in this case.
702 */
703
704 inline all_matching_threads_range
705 all_threads (process_stratum_target *proc_target = nullptr,
706              ptid_t filter_ptid = minus_one_ptid)
707 {
708   return all_matching_threads_range (proc_target, filter_ptid);
709 }
710
711 /* Return a range that can be used to walk over all non-exited threads
712    of all inferiors, with range-for.  Arguments are like all_threads
713    above.  */
714
715 inline all_non_exited_threads_range
716 all_non_exited_threads (process_stratum_target *proc_target = nullptr,
717                         ptid_t filter_ptid = minus_one_ptid)
718 {
719   return all_non_exited_threads_range (proc_target, filter_ptid);
720 }
721
722 /* Return a range that can be used to walk over all threads of all
723    inferiors, with range-for, safely.  I.e., it is safe to delete the
724    currently-iterated thread.  When combined with range-for, this
725    allow convenient patterns like this:
726
727      for (thread_info *t : all_threads_safe ())
728        if (some_condition ())
729          delete f;
730 */
731
732 inline all_threads_safe_range
733 all_threads_safe ()
734 {
735   return all_threads_safe_range (all_threads_iterator::begin_t {});
736 }
737
738 extern int thread_count (process_stratum_target *proc_target);
739
740 /* Return true if we have any thread in any inferior.  */
741 extern bool any_thread_p ();
742
743 /* Switch context to thread THR.  Also sets the STOP_PC global.  */
744 extern void switch_to_thread (struct thread_info *thr);
745
746 /* Switch context to no thread selected.  */
747 extern void switch_to_no_thread ();
748
749 /* Switch from one thread to another.  Does not read registers.  */
750 extern void switch_to_thread_no_regs (struct thread_info *thread);
751
752 /* Marks or clears thread(s) PTID of TARG as resumed.  If PTID is
753    MINUS_ONE_PTID, applies to all threads of TARG.  If
754    ptid_is_pid(PTID) is true, applies to all threads of the process
755    pointed at by {TARG,PTID}.  */
756 extern void set_resumed (process_stratum_target *targ,
757                          ptid_t ptid, bool resumed);
758
759 /* Marks thread PTID of TARG as running, or as stopped.  If PTID is
760    minus_one_ptid, marks all threads of TARG.  */
761 extern void set_running (process_stratum_target *targ,
762                          ptid_t ptid, bool running);
763
764 /* Marks or clears thread(s) PTID of TARG as having been requested to
765    stop.  If PTID is MINUS_ONE_PTID, applies to all threads of TARG.
766    If ptid_is_pid(PTID) is true, applies to all threads of the process
767    pointed at by {TARG, PTID}.  If STOP, then the
768    THREAD_STOP_REQUESTED observer is called with PTID as argument.  */
769 extern void set_stop_requested (process_stratum_target *targ,
770                                 ptid_t ptid, bool stop);
771
772 /* Marks thread PTID of TARG as executing, or not.  If PTID is
773    minus_one_ptid, marks all threads of TARG.
774
775    Note that this is different from the running state.  See the
776    description of state and executing fields of struct
777    thread_info.  */
778 extern void set_executing (process_stratum_target *targ,
779                            ptid_t ptid, bool executing);
780
781 /* True if any (known or unknown) thread of TARG is or may be
782    executing.  */
783 extern bool threads_are_executing (process_stratum_target *targ);
784
785 /* Merge the executing property of thread PTID of TARG over to its
786    thread state property (frontend running/stopped view).
787
788    "not executing" -> "stopped"
789    "executing"     -> "running"
790    "exited"        -> "exited"
791
792    If PTID is minus_one_ptid, go over all threads of TARG.
793
794    Notifications are only emitted if the thread state did change.  */
795 extern void finish_thread_state (process_stratum_target *targ, ptid_t ptid);
796
797 /* Calls finish_thread_state on scope exit, unless release() is called
798    to disengage.  */
799 using scoped_finish_thread_state
800   = FORWARD_SCOPE_EXIT (finish_thread_state);
801
802 /* Commands with a prefix of `thread'.  */
803 extern struct cmd_list_element *thread_cmd_list;
804
805 extern void thread_command (const char *tidstr, int from_tty);
806
807 /* Print notices on thread events (attach, detach, etc.), set with
808    `set print thread-events'.  */
809 extern bool print_thread_events;
810
811 /* Prints the list of threads and their details on UIOUT.  If
812    REQUESTED_THREADS, a list of GDB ids/ranges, is not NULL, only
813    print threads whose ID is included in the list.  If PID is not -1,
814    only print threads from the process PID.  Otherwise, threads from
815    all attached PIDs are printed.  If both REQUESTED_THREADS is not
816    NULL and PID is not -1, then the thread is printed if it belongs to
817    the specified process.  Otherwise, an error is raised.  */
818 extern void print_thread_info (struct ui_out *uiout,
819                                const char *requested_threads,
820                                int pid);
821
822 /* Save/restore current inferior/thread/frame.  */
823
824 class scoped_restore_current_thread
825 {
826 public:
827   scoped_restore_current_thread ();
828   ~scoped_restore_current_thread ();
829
830   DISABLE_COPY_AND_ASSIGN (scoped_restore_current_thread);
831
832   /* Cancel restoring on scope exit.  */
833   void dont_restore () { m_dont_restore = true; }
834
835 private:
836   void restore ();
837
838   bool m_dont_restore = false;
839   thread_info_ref m_thread;
840   inferior_ref m_inf;
841
842   frame_id m_selected_frame_id;
843   int m_selected_frame_level;
844   bool m_was_stopped;
845   /* Save/restore the language as well, because selecting a frame
846      changes the current language to the frame's language if "set
847      language auto".  */
848   enum language m_lang;
849 };
850
851 /* Returns a pointer into the thread_info corresponding to
852    INFERIOR_PTID.  INFERIOR_PTID *must* be in the thread list.  */
853 extern struct thread_info* inferior_thread (void);
854
855 extern void update_thread_list (void);
856
857 /* Delete any thread the target says is no longer alive.  */
858
859 extern void prune_threads (void);
860
861 /* Delete threads marked THREAD_EXITED.  Unlike prune_threads, this
862    does not consult the target about whether the thread is alive right
863    now.  */
864 extern void delete_exited_threads (void);
865
866 /* Return true if PC is in the stepping range of THREAD.  */
867
868 int pc_in_thread_step_range (CORE_ADDR pc, struct thread_info *thread);
869
870 /* Enable storing stack temporaries for thread THR and disable and
871    clear the stack temporaries on destruction.  Holds a strong
872    reference to THR.  */
873
874 class enable_thread_stack_temporaries
875 {
876 public:
877
878   explicit enable_thread_stack_temporaries (struct thread_info *thr)
879     : m_thr (thread_info_ref::new_reference (thr))
880   {
881     m_thr->stack_temporaries_enabled = true;
882     m_thr->stack_temporaries.clear ();
883   }
884
885   ~enable_thread_stack_temporaries ()
886   {
887     m_thr->stack_temporaries_enabled = false;
888     m_thr->stack_temporaries.clear ();
889   }
890
891   DISABLE_COPY_AND_ASSIGN (enable_thread_stack_temporaries);
892
893 private:
894
895   thread_info_ref m_thr;
896 };
897
898 extern bool thread_stack_temporaries_enabled_p (struct thread_info *tp);
899
900 extern void push_thread_stack_temporary (struct thread_info *tp, struct value *v);
901
902 extern value *get_last_thread_stack_temporary (struct thread_info *tp);
903
904 extern bool value_in_thread_stack_temporaries (struct value *,
905                                                struct thread_info *thr);
906
907 /* Thread step-over list type.  */
908 using thread_step_over_list_node
909   = intrusive_member_node<thread_info, &thread_info::step_over_list_node>;
910 using thread_step_over_list
911   = intrusive_list<thread_info, thread_step_over_list_node>;
912 using thread_step_over_list_iterator
913   = reference_to_pointer_iterator<thread_step_over_list::iterator>;
914 using thread_step_over_list_safe_iterator
915   = basic_safe_iterator<thread_step_over_list_iterator>;
916 using thread_step_over_list_safe_range
917   = iterator_range<thread_step_over_list_safe_iterator>;
918
919 static inline thread_step_over_list_safe_range
920 make_thread_step_over_list_safe_range (thread_step_over_list &list)
921 {
922   return thread_step_over_list_safe_range
923     (thread_step_over_list_safe_iterator (list.begin (),
924                                           list.end ()),
925      thread_step_over_list_safe_iterator (list.end (),
926                                           list.end ()));
927 }
928
929 /* Add TP to the end of the global pending step-over chain.  */
930
931 extern void global_thread_step_over_chain_enqueue (thread_info *tp);
932
933 /* Append the thread step over list LIST to the global thread step over
934    chain. */
935
936 extern void global_thread_step_over_chain_enqueue_chain
937   (thread_step_over_list &&list);
938
939 /* Remove TP from the global pending step-over chain.  */
940
941 extern void global_thread_step_over_chain_remove (thread_info *tp);
942
943 /* Return true if TP is in any step-over chain.  */
944
945 extern int thread_is_in_step_over_chain (struct thread_info *tp);
946
947 /* Return the length of the the step over chain TP is in.
948
949    If TP is non-nullptr, the thread must be in a step over chain.
950    TP may be nullptr, in which case it denotes an empty list, so a length of
951    0.  */
952
953 extern int thread_step_over_chain_length (const thread_step_over_list &l);
954
955 /* Cancel any ongoing execution command.  */
956
957 extern void thread_cancel_execution_command (struct thread_info *thr);
958
959 /* Check whether it makes sense to access a register of the current
960    thread at this point.  If not, throw an error (e.g., the thread is
961    executing).  */
962 extern void validate_registers_access (void);
963
964 /* Check whether it makes sense to access a register of THREAD at this point.
965    Returns true if registers may be accessed; false otherwise.  */
966 extern bool can_access_registers_thread (struct thread_info *thread);
967
968 /* Returns whether to show which thread hit the breakpoint, received a
969    signal, etc. and ended up causing a user-visible stop.  This is
970    true iff we ever detected multiple threads.  */
971 extern int show_thread_that_caused_stop (void);
972
973 /* Print the message for a thread or/and frame selected.  */
974 extern void print_selected_thread_frame (struct ui_out *uiout,
975                                          user_selected_what selection);
976
977 /* Helper for the CLI's "thread" command and for MI's -thread-select.
978    Selects thread THR.  TIDSTR is the original string the thread ID
979    was parsed from.  This is used in the error message if THR is not
980    alive anymore.  */
981 extern void thread_select (const char *tidstr, class thread_info *thr);
982
983 /* Return THREAD's name.
984
985    If THREAD has a user-given name, return it.  Otherwise, query the thread's
986    target to get the name.  May return nullptr.  */
987 extern const char *thread_name (thread_info *thread);
988
989 /* Switch to thread TP if it is alive.  Returns true if successfully
990    switched, false otherwise.  */
991
992 extern bool switch_to_thread_if_alive (thread_info *thr);
993
994 /* Assuming that THR is the current thread, execute CMD.
995    If ADA_TASK is not empty, it is the Ada task ID, and will
996    be printed instead of the thread information.
997    FLAGS.QUIET controls the printing of the thread information.
998    FLAGS.CONT and FLAGS.SILENT control how to handle errors.  Can throw an
999    exception if !FLAGS.SILENT and !FLAGS.CONT and CMD fails.  */
1000
1001 extern void thread_try_catch_cmd (thread_info *thr,
1002                                   gdb::optional<int> ada_task,
1003                                   const char *cmd, int from_tty,
1004                                   const qcs_flags &flags);
1005
1006 /* Return a string representation of STATE.  */
1007
1008 extern const char *thread_state_string (enum thread_state state);
1009
1010 #endif /* GDBTHREAD_H */
This page took 0.080524 seconds and 4 git commands to generate.