Intrinsische ARM-Funktionen
Der Microsoft C++-Compiler (MSVC) stellt die folgenden systeminternen Elemente in der ARM-Architektur zur Verfügung. Weitere Informationen zu ARM finden Sie in den Abschnitten "Architecture and Software Development Tools" der ARM Developer Documentation-Website .
NEON
Die ERWEITERUNGEN für DEN NEON-Vektoranweisungssatz für ARM bieten Funktionen für single Instruction Multiple Data (SIMD), die den in den MMX- und SSE-Vektor-Anweisungssätzen ähneln, die für x86- und x64-Architekturprozessoren üblich sind.
Systeminterne NEON-Funktionen werden unterstützt, wie in der Headerdatei arm_neon.h
angegeben. Die MSVC-Unterstützung für NEON-systeminterne Elemente ähnelt dem des ARM-Compilers, der in Anhang G der ARM-Compiler-Toolkette, Version 4.1-Compilerreferenz auf der ARM Infocenter-Website dokumentiert ist.
Der Hauptunterschied zwischen MSVC und dem ARM-Compiler besteht darin, dass der MSVC Varianten der Lade- und vstX
Speicheranweisungen des vldX
Vektors hinzufügt_ex
. Die _ex
-Varianten benötigen einen zusätzlichen Parameter, der die Ausrichtung des Zeigerargument angibt, sind aber ansonsten identisch mit ihren Nicht-_ex
-Entsprechungen.
ARM-spezifische Systeminterne Auflistung
Funktionsname | Anweisung | Funktionsprototyp |
---|---|---|
_arm_smlal | SMLAL | __int64 _arm_smlal(__int64 _RdHiLo, int _Rn, int _Rm) |
_arm_umlal | UMLAL | unsigned __int64 _arm_umlal(unsigned __int64 _RdHiLo, unsigned int _Rn, unsigned int _Rm) |
_arm_clz | CLZ | unsigned int _arm_clz(unsigned int _Rm) |
_arm_qadd | QADD | int _arm_qadd(int _Rm, int _Rn) |
_arm_qdadd | QDADD | int _arm_qdadd(int _Rm, int _Rn) |
_arm_qdsub | QDSUB | int _arm_qdsub(int _Rm, int _Rn) |
_arm_qsub | QSUB | int _arm_qsub(int _Rm, int _Rn) |
_arm_smlabb | SMLABB | int _arm_smlabb(int _Rn, int _Rm, int _Ra) |
_arm_smlabt | SMLABT | int _arm_smlabt(int _Rn, int _Rm, int _Ra) |
_arm_smlatb | SMLATB | int _arm_smlatb(int _Rn, int _Rm, int _Ra) |
_arm_smlatt | SMLATT | int _arm_smlatt(int _Rn, int _Rm, int _Ra) |
_arm_smlalbb | SMLALBB | __int64 _arm_smlalbb(__int64 _RdHiLo, int _Rn, int _Rm) |
_arm_smlalbt | SMLALBT | __int64 _arm_smlalbt(__int64 _RdHiLo, int _Rn, int _Rm) |
_arm_smlaltb | SMLALTB | __int64 _arm_smlaltb(__int64 _RdHiLo, int _Rn, int _Rm) |
_arm_smlaltt | SMLALTT | __int64 _arm_smlaltt(__int64 _RdHiLo, int _Rn, int _Rm) |
_arm_smlawb | SMLAWB | int _arm_smlawb(int _Rn, int _Rm, int _Ra) |
_arm_smlawt | SMLAWT | int _arm_smlawt(int _Rn, int _Rm, int _Ra) |
_arm_smulbb | SMULBB | int _arm_smulbb(int _Rn, int _Rm) |
_arm_smulbt | SMULBT | int _arm_smulbt(int _Rn, int _Rm) |
_arm_smultb | SMULTB | int _arm_smultb(int _Rn, int _Rm) |
_arm_smultt | SMULTT | int _arm_smultt(int _Rn, int _Rm) |
_arm_smulwb | SMULWB | int _arm_smulwb(int _Rn, int _Rm) |
_arm_smulwt | SMULWT | int _arm_smulwt(int _Rn, int _Rm) |
_arm_sadd16 | SADD16 | int _arm_sadd16(int _Rn, int _Rm) |
_arm_sadd8 | SADD8 | int _arm_sadd8(int _Rn, int _Rm) |
_arm_sasx | SASX | int _arm_sasx(int _Rn, int _Rm) |
_arm_ssax | SSAX | int _arm_ssax(int _Rn, int _Rm) |
_arm_ssub16 | SSUB16 | int _arm_ssub16(int _Rn, int _Rm) |
_arm_ssub8 | SSUB8 | int _arm_ssub8(int _Rn, int _Rm) |
_arm_shadd16 | SHADD16 | int _arm_shadd16(int _Rn, int _Rm) |
_arm_shadd8 | SHADD8 | int _arm_shadd8(int _Rn, int _Rm) |
_arm_shasx | SHASX | int _arm_shasx(int _Rn, int _Rm) |
_arm_shsax | SHSAX | int _arm_shsax(int _Rn, int _Rm) |
_arm_shsub16 | SHSUB16 | int _arm_shsub16(int _Rn, int _Rm) |
_arm_shsub8 | SHSUB8 | int _arm_shsub8(int _Rn, int _Rm) |
_arm_qadd16 | QADD16 | int _arm_qadd16(int _Rn, int _Rm) |
_arm_qadd8 | QADD8 | int _arm_qadd8(int _Rn, int _Rm) |
_arm_qasx | QASX | int _arm_qasx(int _Rn, int _Rm) |
_arm_qsax | QSAX | int _arm_qsax(int _Rn, int _Rm) |
_arm_qsub16 | QSUB16 | int _arm_qsub16(int _Rn, int _Rm) |
_arm_qsub8 | QSUB8 | int _arm_qsub8(int _Rn, int _Rm) |
_arm_uadd16 | UADD16 | unsigned int _arm_uadd16(unsigned int _Rn, unsigned int _Rm) |
_arm_uadd8 | UADD8 | unsigned int _arm_uadd8(unsigned int _Rn, unsigned int _Rm) |
_arm_uasx | UASX | unsigned int _arm_uasx(unsigned int _Rn, unsigned int _Rm) |
_arm_usax | USAX | unsigned int _arm_usax(unsigned int _Rn, unsigned int _Rm) |
_arm_usub16 | USUB16 | unsigned int _arm_usub16(unsigned int _Rn, unsigned int _Rm) |
_arm_usub8 | USUB8 | unsigned int _arm_usub8(unsigned int _Rn, unsigned int _Rm) |
_arm_uhadd16 | UHADD16 | unsigned int _arm_uhadd16(unsigned int _Rn, unsigned int _Rm) |
_arm_uhadd8 | UHADD8 | unsigned int _arm_uhadd8(unsigned int _Rn, unsigned int _Rm) |
_arm_uhasx | UHASX | unsigned int _arm_uhasx(unsigned int _Rn, unsigned int _Rm) |
_arm_uhsax | UHSAX | unsigned int _arm_uhsax(unsigned int _Rn, unsigned int _Rm) |
_arm_uhsub16 | UHSUB16 | unsigned int _arm_uhsub16(unsigned int _Rn, unsigned int _Rm) |
_arm_uhsub8 | UHSUB8 | unsigned int _arm_uhsub8(unsigned int _Rn, unsigned int _Rm) |
_arm_uqadd16 | UQADD16 | unsigned int _arm_uqadd16(unsigned int _Rn, unsigned int _Rm) |
_arm_uqadd8 | UQADD8 | unsigned int _arm_uqadd8(unsigned int _Rn, unsigned int _Rm) |
_arm_uqasx | UQASX | unsigned int _arm_uqasx(unsigned int _Rn, unsigned int _Rm) |
_arm_uqsax | UQSAX | unsigned int _arm_uqsax(unsigned int _Rn, unsigned int _Rm) |
_arm_uqsub16 | UQSUB16 | unsigned int _arm_uqsub16(unsigned int _Rn, unsigned int _Rm) |
_arm_uqsub8 | UQSUB8 | unsigned int _arm_uqsub8(unsigned int _Rn, unsigned int _Rm) |
_arm_sxtab | SXTAB | int _arm_sxtab(int _Rn, int _Rm, unsigned int _Rotation) |
_arm_sxtab16 | SXTAB16 | int _arm_sxtab16(int _Rn, int _Rm, unsigned int _Rotation) |
_arm_sxtah | SXTAH | int _arm_sxtah(int _Rn, int _Rm, unsigned int _Rotation) |
_arm_uxtab | UXTAB | unsigned int _arm_uxtab(unsigned int _Rn, unsigned int _Rm, unsigned int _Rotation) |
_arm_uxtab16 | UXTAB16 | unsigned int _arm_uxta16b(unsigned int _Rn, unsigned int _Rm, unsigned int _Rotation) |
_arm_uxtah | UXTAH | unsigned int _arm_uxtah(unsigned int _Rn, unsigned int _Rm, unsigned int _Rotation) |
_arm_sxtb | SXTB | int _arm_sxtb(int _Rn, unsigned int _Rotation) |
_arm_sxtb16 | SXTB16 | int _arm_sxtb16(int _Rn, unsigned int _Rotation) |
_arm_sxth | SXTH | int _arm_sxth(int _Rn, unsigned int _Rotation) |
_arm_uxtb | UXTB | unsigned int _arm_uxtb(unsigned int _Rn, unsigned int _Rotation) |
_arm_uxtb16 | UXTB16 | unsigned int _arm_uxtb16(unsigned int _Rn, unsigned int _Rotation) |
_arm_uxth | UXTH | unsigned int _arm_uxth(unsigned int _Rn, unsigned int _Rotation) |
_arm_pkhbt | PKHBT | int _arm_pkhbt(int _Rn, int _Rm, unsigned int _Lsl_imm) |
_arm_pkhtb | PKHTB | int _arm_pkhtb(int _Rn, int _Rm, unsigned int _Asr_imm) |
_arm_usad8 | USAD8 | unsigned int _arm_usad8(unsigned int _Rn, unsigned int _Rm) |
_arm_usada8 | USADA8 | unsigned int _arm_usada8(unsigned int _Rn, unsigned int _Rm, unsigned int _Ra) |
_arm_ssat | SSAT | int _arm_ssat(unsigned int _Sat_imm, _int _Rn, _ARMINTR_SHIFT_T _Shift_type, unsigned int _Shift_imm) |
_arm_usat | USAT | int _arm_usat(unsigned int _Sat_imm, _int _Rn, _ARMINTR_SHIFT_T _Shift_type, unsigned int _Shift_imm) |
_arm_ssat16 | SSAT16 | int _arm_ssat16(unsigned int _Sat_imm, _int _Rn) |
_arm_usat16 | USAT16 | int _arm_usat16(unsigned int _Sat_imm, _int _Rn) |
_arm_rev | REV | unsigned int _arm_rev(unsigned int _Rm) |
_arm_rev16 | REV16 | unsigned int _arm_rev16(unsigned int _Rm) |
_arm_revsh | REVSH | unsigned int _arm_revsh(unsigned int _Rm) |
_arm_smlad | SMLAD | int _arm_smlad(int _Rn, int _Rm, int _Ra) |
_arm_smladx | SMLADX | int _arm_smladx(int _Rn, int _Rm, int _Ra) |
_arm_smlsd | SMLSD | int _arm_smlsd(int _Rn, int _Rm, int _Ra) |
_arm_smlsdx | SMLSDX | int _arm_smlsdx(int _Rn, int _Rm, int _Ra) |
_arm_smmla | SMMLA | int _arm_smmla(int _Rn, int _Rm, int _Ra) |
_arm_smmlar | SMMLAR | int _arm_smmlar(int _Rn, int _Rm, int _Ra) |
_arm_smmls | SMMLS | int _arm_smmls(int _Rn, int _Rm, int _Ra) |
_arm_smmlsr | SMMLSR | int _arm_smmlsr(int _Rn, int _Rm, int _Ra) |
_arm_smmul | SMMUL | int _arm_smmul(int _Rn, int _Rm) |
_arm_smmulr | SMMULR | int _arm_smmulr(int _Rn, int _Rm) |
_arm_smlald | SMLALD | __int64 _arm_smlald(__int64 _RdHiLo, int _Rn, int _Rm) |
_arm_smlaldx | SMLALDX | __int64 _arm_smlaldx(__int64 _RdHiLo, int _Rn, int _Rm) |
_arm_smlsld | SMLSLD | __int64 _arm_smlsld(__int64 _RdHiLo, int _Rn, int _Rm) |
_arm_smlsldx | SMLSLDX | __int64 _arm_smlsldx(__int64 _RdHiLo, int _Rn, int _Rm) |
_arm_smuad | SMUAD | int _arm_smuad(int _Rn, int _Rm) |
_arm_smuadx | SMUADX | int _arm_muadxs(int _Rn, int _Rm) |
_arm_smusd | SMUSD | int _arm_smusd(int _Rn, int _Rm) |
_arm_smusdx | SMUSDX | int _arm_smusdx(int _Rn, int _Rm) |
_arm_smull | SMULL | __int64 _arm_smull(int _Rn, int _Rm) |
_arm_umull | UMULL | unsigned __int64 _arm_umull(unsigned int _Rn, unsigned int _Rm) |
_arm_umaal | UMAAL | unsigned __int64 _arm_umaal(unsigned int _RdLo, unsigned int _RdHi, unsigned int _Rn, unsigned int _Rm) |
_arm_bfc | BFC | unsigned int _arm_bfc(unsigned int _Rd, unsigned int _Lsb, unsigned int _Width) |
_arm_bfi | BFI | unsigned int _arm_bfi(unsigned int _Rd, unsigned int _Rn, unsigned int _Lsb, unsigned int _Width) |
_arm_rbit | RBIT | unsigned int _arm_rbit(unsigned int _Rm) |
_arm_sbfx | SBFX | int _arm_sbfx(int _Rn, unsigned int _Lsb, unsigned int _Width) |
_arm_ubfx | UBFX | unsigned int _arm_ubfx(unsigned int _Rn, unsigned int _Lsb, unsigned int _Width) |
_arm_sdiv | SDIV | int _arm_sdiv(int _Rn, int _Rm) |
_arm_udiv | UDIV | unsigned int _arm_udiv(unsigned int _Rn, unsigned int _Rm) |
__cps | CPS | void __cps(unsigned int _Ops, unsigned int _Flags, unsigned int _Mode) |
__dmb | DMB | void __dmb(unsigned int _Type )Fügt einen Speicherabgrenzungsvorgang in den Anweisungsstream ein. Der Parameter _Type gibt die Art der Einschränkung an, die die Grenze erzwingt.Weitere Informationen zu den Arten von Einschränkungen, die erzwungen werden können, finden Sie unter Einschränkungen für Speicherbarrieren. |
__dsb | DSB | void __dsb(unsigned int _Type) Fügt einen Speicherabgrenzungsvorgang in den Anweisungsstream ein. Der Parameter _Type gibt die Art der Einschränkung an, die die Grenze erzwingt.Weitere Informationen zu den Arten von Einschränkungen, die erzwungen werden können, finden Sie unter Einschränkungen für Speicherbarrieren. |
__isb | ISB | void __isb(unsigned int _Type) Fügt einen Speicherabgrenzungsvorgang in den Anweisungsstream ein. Der Parameter _Type gibt die Art der Einschränkung an, die die Grenze erzwingt.Weitere Informationen zu den Arten von Einschränkungen, die erzwungen werden können, finden Sie unter Einschränkungen für Speicherbarrieren. |
__emit | void __emit(unsigned __int32 opcode) Fügt eine angegebene Anweisung in den Anweisungsstream ein, der vom Compiler ausgegeben wird. Der Wert von opcode muss ein konstanter Ausdruck sein, der zum Zeitpunkt der Kompilierung bekannt ist. Die Größe eines Anweisungsworts beträgt 16 Bit, und die höchstwertigen 16 Bits von opcode werden ignoriert.Der Compiler versucht nicht, den Inhalt des opcode Inhalts zu interpretieren und garantiert keinen CPU- oder Arbeitsspeicherstatus, bevor die eingefügte Anweisung ausgeführt wird.Der Compiler geht davon aus, dass der CPU- und Speicherstatus nicht geändert wurde, nachdem die eingefügte Anweisung ausgeführt wird. Daher können Anweisungen, die den Änderungszustand ausführen, nachteilige Auswirkungen auf normalen Code haben, der vom Compiler generiert wird. Verwenden Sie emit aus diesem Grund nur Zum Einfügen von Anweisungen, die sich auf einen CPU-Zustand auswirken, den der Compiler normalerweise nicht verarbeitet , z. B. den Koprozessorstatus, oder um Funktionen zu implementieren, die mithilfe declspec(naked) von . |
|
__hvc | HVC | unsigned int __hvc(unsigned int, ...) |
__iso_volatile_load16 | __int16 __iso_volatile_load16(const volatile __int16 *) Weitere Informationen finden Sie unter __iso_volatile_load/Speichern systeminterner Komponenten. |
|
__iso_volatile_load32 | __int32 __iso_volatile_load32(veränderliche __int32 *) Weitere Informationen finden Sie unter __iso_volatile_load/Speichern systeminterner Komponenten. |
|
__iso_volatile_load64 | __int64 __iso_volatile_load64(veränderliche __int64 *) Weitere Informationen finden Sie unter __iso_volatile_load/Speichern systeminterner Komponenten. |
|
__iso_volatile_load8 | __int8 __iso_volatile_load8(konstante veränderliche __int8 *) Weitere Informationen finden Sie unter __iso_volatile_load/Speichern systeminterner Komponenten. |
|
__iso_volatile_store16 | void __iso_volatile_store16(volatile __int16 *, __int16) Weitere Informationen finden Sie unter __iso_volatile_load/Speichern systeminterner Komponenten. |
|
__iso_volatile_store32 | void __iso_volatile_store32(volatile __int32 *, __int32) Weitere Informationen finden Sie unter __iso_volatile_load/Speichern systeminterner Komponenten. |
|
__iso_volatile_store64 | void __iso_volatile_store64(volatile __int64 *, __int64) Weitere Informationen finden Sie unter __iso_volatile_load/Speichern systeminterner Komponenten. |
|
__iso_volatile_store8 | void __iso_volatile_store8(volatile __int8 *, __int8) Weitere Informationen finden Sie unter __iso_volatile_load/Speichern systeminterner Komponenten. |
|
__ldrexd | LDREXD | __int64 __ldrexd(veränderliche __int64 *) |
__prefetch | PLD | void __cdecl __prefetch(const void *) Stellt einen PLD -Speicherhinweis für das System bereit, dass auf den Speicher an oder in der Nähe der angegebenen Adresse bald zugegriffen werden kann. Einige Systeme führen möglicherweise eine Optimierung für dieses Speicherzugriffsmuster aus, um die Leistung zur Laufzeit zu verbessern. Aus Sicht der C++-Sprache hat die Funktion jedoch keine sichtbaren Auswirkungen und hat möglicherweise gar keinen Nutzen. |
__rdpmccntr64 | nicht signierte __int64 __rdpmccntr64(void) | |
__sev | SEV | void __sev(void) |
__static_assert | void __static_assert(int, const char *) | |
__swi | SVC | unsigned int __swi(unsigned int, ...) |
__trap | BKPT | int __trap(int, ...) |
__wfe | WFE | void __wfe(void) |
__wfi | WFI | void __wfi(void) |
_AddSatInt | QADD | int _AddSatInt(int, int) |
_CopyDoubleFromInt64 | double _CopyDoubleFromInt64(__int64) | |
_CopyFloatFromInt32 | float _CopyFloatFromInt32(__int32) | |
_CopyInt32FromFloat | __int32 _CopyInt32FromFloat(float) | |
_CopyInt64FromDouble | __int64 _CopyInt64FromDouble(double) | |
_CountLeadingOnes | unsigned int _CountLeadingOnes(unsigned long) | |
_CountLeadingOnes64 | unsigned int _CountLeadingOnes64(unsigned __int64) | |
_CountLeadingSigns | unsigned int _CountLeadingSigns(long) | |
_CountLeadingSigns64 | unsigned int _CountLeadingSigns64(__int64) | |
_CountLeadingZeros | unsigned int _CountLeadingZeros(unsigned long) | |
_CountLeadingZeros64 | unsigned int _CountLeadingZeros64(nicht signierte __int64) | |
_CountTrailingZeros | unsigned _CountTrailingZeros(unsigned long) | |
_CountTrailingZeros64 | nicht signierte _CountTrailingZeros64(nicht signierte __int64) | |
_CountOneBits | unsigned int _CountOneBits(unsigned long) | |
_CountOneBits64 | unsigned int _CountOneBits64(unsigned __int64) | |
_DAddSatInt | QDADD | int _DAddSatInt(int, int) |
_DSubSatInt | QDSUB | int _DSubSatInt(int, int) |
_isunordered | int _isunordered(double, double) | |
_isunorderedf | int _isunorderedf(float, float) | |
_MoveFromCoprocessor | MRC | unsigned int _MoveFromCoprocessor(unsigned int, unsigned int, unsigned int, unsigned int, unsigned int) Liest Daten mithilfe der Coprozessor-Datenübertragungsanweisungen aus einem ARM-Coprozessor. Weitere Informationen finden Sie unter _MoveFromCoprocessor, _MoveFromCoprocessor2. |
_MoveFromCoprocessor2 | MRC2 | unsigned int _MoveFromCoprocessor2(unsigned int, unsigned int, unsigned int, unsigned int, unsigned int) Liest Daten mithilfe der Coprozessor-Datenübertragungsanweisungen aus einem ARM-Coprozessor. Weitere Informationen finden Sie unter _MoveFromCoprocessor, _MoveFromCoprocessor2. |
_MoveFromCoprocessor64 | MRRC | unsigned __int64 _MoveFromCoprocessor64(unsigned int, unsigned int, unsigned int) Liest Daten mithilfe der Coprozessor-Datenübertragungsanweisungen aus einem ARM-Coprozessor. Weitere Informationen finden Sie unter _MoveFromCoprocessor64. |
_MoveToCoprocessor | MCR | void _MoveToCoprocessor(unsigned int, unsigned int, unsigned int, unsigned int, unsigned int, unsigned int) Liest Daten mithilfe der Coprozessor-Datenübertragungsanweisungen aus einem ARM-Coprozessor. Weitere Informationen finden Sie unter _MoveToCoprocessor, _MoveToCoprocessor2. |
_MoveToCoprocessor2 | MCR2 | void _MoveToCoprocessor2(unsigned int, unsigned int, unsigned int, unsigned int, unsigned int, unsigned int) Liest Daten mithilfe der Coprozessor-Datenübertragungsanweisungen aus einem ARM-Coprozessor. Weitere Informationen finden Sie unter _MoveToCoprocessor, _MoveToCoprocessor2. |
_MoveToCoprocessor64 | MCRR | void _MoveToCoprocessor64(unsigned __int64, unsigned int, unsigned int, unsigned int) Liest Daten mithilfe der Coprozessor-Datenübertragungsanweisungen aus einem ARM-Coprozessor. Weitere Informationen finden Sie unter _MoveToCoprocessor64. |
_MulHigh | long _MulHigh(long, long) | |
_MulUnsignedHigh | unsigned long _MulUnsignedHigh(unsigned long, unsigned long) | |
_ReadBankedReg | MRS | int _ReadBankedReg(int _Reg) |
_ReadStatusReg | MRS | int _ReadStatusReg(int) |
_SubSatInt | QSUB | int _SubSatInt(int, int) |
_WriteBankedReg | MSR | void _WriteBankedReg(int _Value, int _Reg) |
_WriteStatusReg | MSR | void _WriteStatusReg(int, int, int) |
Einschränkungen bei Speicherbarrieren
Die systeminternen Funktionen __dmb
(Datenspeicherbarriere), __dsb
(Datensynchronisierungsbarriere) und __isb
(Anweisungssynchronisierungsbarriere) verwenden die folgenden vordefinierten Werte, um die Einschränkung der Speicherbarriere in Bezug auf die Freigabedomäne und die Art des Zugriffs anzugeben, die von dem Vorgang betroffen sind.
Einschränkungswert | Beschreibung |
---|---|
_ARM_BARRIER_SY | Gesamtes System, Lese- und Schreibvorgänge. |
_ARM_BARRIER_ST | Gesamtes System, nur Schreibvorgänge. |
_ARM_BARRIER_ISH | Innen teilbar, Lese- und Schreibvorgänge. |
_ARM_BARRIER_ISHST | Innen teilbar, nur Schreibvorgänge. |
_ARM_BARRIER_NSH | Nicht teilbar, Lese- und Schreibvorgänge. |
_ARM_BARRIER_NSHST | Nicht teilbar, nur Schreibvorgänge. |
_ARM_BARRIER_OSH | Außen teilbar, Lese- und Schreibvorgänge. |
_ARM_BARRIER_OSHST | Außen teilbar, nur Schreibvorgänge. |
Für die systeminterne Funktion __isb
ist _ARM_BARRIER_SY die einzig derzeit gültige Einschränkung; alle anderen Werte werden von der Architektur reserviert.
systeminterne __iso_volatile_load/Speichern
Diese systeminternen Funktionen führen explizit Lade- und Speichervorgänge aus, die keinen Compileroptimierungen unterliegen.
__int16 __iso_volatile_load16(const volatile __int16 * Location);
__int32 __iso_volatile_load32(const volatile __int32 * Location);
__int64 __iso_volatile_load64(const volatile __int64 * Location);
__int8 __iso_volatile_load8(const volatile __int8 * Location);
void __iso_volatile_store16(volatile __int16 * Location, __int16 Value);
void __iso_volatile_store32(volatile __int32 * Location, __int32 Value);
void __iso_volatile_store64(volatile __int64 * Location, __int64 Value);
void __iso_volatile_store8(volatile __int8 * Location, __int8 Value);
Parameter
Location
Die Adresse eines Speicherbereichs für Lese- oder Schreibvorgänge.
Wert
Der Wert, der in den angegebenen Speicherspeicherort geschrieben werden soll (nur systeminterne Speicher).
Rückgabewert (nur systeminternes Laden)
Der Wert des Speicherbereichs, der durch Location
angegeben wird.
Hinweise
Sie können die __iso_volatile_load8/16/32/64
systeminternen und __iso_volatile_store8/16/32/64
speicherinternen Zugriffe explizit ausführen, die keinen Compileroptimierungen unterliegen. Der Compiler kann die relative Reihenfolge dieser Vorgänge nicht entfernen, synthetisieren oder ändern, generiert jedoch keine impliziten Hardwarespeicherbarrieren. Aus diesem Grund kann die Hardware die sichtbaren Speicherzugriffe möglicherweise immer noch über mehrere Threads hinweg neu anordnen. Genauer gesagt entsprechen diese systeminternen Ausdrücken den folgenden Ausdrücken, wie unter /volatile:iso kompiliert.
int a = __iso_volatile_load32(p); // equivalent to: int a = *(const volatile __int32*)p;
__iso_volatile_store32(p, a); // equivalent to: *(volatile __int32*)p = a;
Beachten Sie, dass die systeminternen Funktionen flüchtige Zeiger verwenden, um flüchtige Variablen zu berücksichtigen. Es gibt jedoch keine Anforderung oder Empfehlung, veränderliche Zeiger als Argumente zu verwenden. Die Semantik dieser Vorgänge ist identisch, wenn ein normaler, nicht veränderiger Typ verwendet wird.
Weitere Informationen zum Befehlszeilenargument /volatile:iso finden Sie unter /volatile (volatile Keyword Interpretation).For more information about the /volatile:iso command-line argument, see /volatile Keyword Interpretation.For more information about the /volatile:iso command-line argument, see /volatile (volatile Keyword Interpretation).
_MoveFromCoprocessor, _MoveFromCoprocessor2
Diese systeminternen Funktionen lesen von Daten aus ARM-Coprozessoren mithilfe der Coprozessor-Datenübertragungsanweisungen.
int _MoveFromCoprocessor(
unsigned int coproc,
unsigned int opcode1,
unsigned int crn,
unsigned int crm,
unsigned int opcode2
);
int _MoveFromCoprocessor2(
unsigned int coproc,
unsigned int opcode1,
unsigned int crn,
unsigned int crm,
unsigned int opcode2
);
Parameter
Koproc
Coprozessorzahl im Bereich 0 bis 15.
opcode1
Coprozessorspezifischer Opcode im Bereich von 0 bis 7.
crn
Coprozessorregisternummer im Bereich 0 bis 15, die den ersten Operanden für die Anweisung angibt.
crm
Coprozessorregisternummer im Bereich 0 bis 15, die einen zusätzlichen Quell- oder Zieloperanden angibt.
opcode2
Zusätzlicher coprozessorspezifischer Opcode im Bereich von 0 bis 7.
Rückgabewert
Der Wert, der aus dem Coprozessor gelesen wird.
Hinweise
Die Werte aller fünf Parameter der systeminternen Müssen konstanten Ausdrücke sein, die zur Kompilierungszeit bekannt sind.
_MoveFromCoprocessor
verwendet die MRC-Anweisung; _MoveFromCoprocessor2
verwendet MRC2. Die Parameter entsprechen den Bitfeldern, die direkt in das Befehlswort codiert werden. Die Interpretation der Parameter ist vom Coprozessor abhängig. Weitere Informationen finden Sie im Handbuch für den betreffenden Coprozessor.
_MoveFromCoprocessor64
Liest Daten mithilfe der Coprozessor-Datenübertragungsanweisungen aus ARM-Coprozessoren.
unsigned __int64 _MoveFromCoprocessor64(
unsigned int coproc,
unsigned int opcode1,
unsigned int crm,
);
Parameter
Koproc
Coprozessorzahl im Bereich 0 bis 15.
opcode1
Coprozessorspezifischer Opcode im Bereich von 0 bis 15.
crm
Coprozessorregisternummer im Bereich 0 bis 15, die einen zusätzlichen Quell- oder Zieloperanden angibt.
Rückgabewert
Der Wert, der aus dem Coprozessor gelesen wird.
Hinweise
Die Werte aller drei Parameter der systeminternen Müssen Konstantenausdrücke sein, die zur Kompilierungszeit bekannt sind.
_MoveFromCoprocessor64
verwendet die MRRC-Anweisung. Die Parameter entsprechen den Bitfeldern, die direkt in das Befehlswort codiert werden. Die Interpretation der Parameter ist vom Coprozessor abhängig. Weitere Informationen finden Sie im Handbuch für den betreffenden Coprozessor.
_MoveToCoprocessor, _MoveToCoprocessor2
Diese intrinsischen Funktionen schreiben Daten an ARM-Coprozessoren mithilfe der Coprozessor-Datenübertragungsanweisungen.
void _MoveToCoprocessor(
unsigned int value,
unsigned int coproc,
unsigned int opcode1,
unsigned int crn,
unsigned int crm,
unsigned int opcode2
);
void _MoveToCoprocessor2(
unsigned int value,
unsigned int coproc,
unsigned int opcode1,
unsigned int crn,
unsigned int crm,
unsigned int opcode2
);
Parameter
value
Der Wert, der in den Coprozessor geschrieben werden soll.
Koproc
Coprozessorzahl im Bereich 0 bis 15.
opcode1
Coprozessorspezifischer Opcode im Bereich von 0 bis 7.
crn
Coprozessorregisternummer im Bereich 0 bis 15, die den ersten Operanden für die Anweisung angibt.
crm
Coprozessorregisternummer im Bereich 0 bis 15, die einen zusätzlichen Quell- oder Zieloperanden angibt.
opcode2
Zusätzlicher coprozessorspezifischer Opcode im Bereich von 0 bis 7.
Rückgabewert
Keine.
Hinweise
Die Werte der coproc
opcode1
systeminternen , , crn
, crm
und opcode2
Parameter müssen konstanten Ausdrücke sein, die zur Kompilierungszeit bekannt sind.
_MoveToCoprocessor
verwendet die MCR-Anweisung. _MoveToCoprocessor2
verwendet MCR2. Die Parameter entsprechen den Bitfeldern, die direkt in das Befehlswort codiert werden. Die Interpretation der Parameter ist vom Coprozessor abhängig. Weitere Informationen finden Sie im Handbuch für den betreffenden Coprozessor.
_MoveToCoprocessor64
Diese intrinsischen Funktionen schreiben Daten an ARM-Coprozessoren mithilfe der Coprozessor-Datenübertragungsanweisungen.
void _MoveFromCoprocessor64(
unsigned __int64 value,
unsigned int coproc,
unsigned int opcode1,
unsigned int crm,
);
Parameter
Koproc
Coprozessorzahl im Bereich 0 bis 15.
opcode1
Coprozessorspezifischer Opcode im Bereich von 0 bis 15.
crm
Coprozessorregisternummer im Bereich 0 bis 15, die einen zusätzlichen Quell- oder Zieloperanden angibt.
Rückgabewert
Keine.
Hinweise
Die Werte der coproc
opcode1
systeminternen Werte und crm
Parameter der systeminternen Müssen konstanten Ausdrücke sein, die zur Kompilierungszeit bekannt sind.
_MoveFromCoprocessor64
verwendet die MCRR-Anweisung. Die Parameter entsprechen den Bitfeldern, die direkt in das Befehlswort codiert werden. Die Interpretation der Parameter ist vom Coprozessor abhängig. Weitere Informationen finden Sie im Handbuch für den betreffenden Coprozessor.
ARM-Unterstützung für systeminterne Elemente aus anderen Architekturen
Die folgende Tabelle enthält die systeminternen Funktionen von anderen Architekturen, die auf ARM-Plattformen unterstützt werden. Wenn sich das Verhalten einer syteminternen Funktion bei ARM von dem Verhalten auf anderen Hardwarearchitekturen unterscheidet, sind zusätzliche Details aufgeführt.
Funktionsname | Funktionsprototyp |
---|---|
__assume | void __assume(int) |
__code_seg | void __code_seg(const char *) |
__debugbreak | void __cdecl __debugbreak(void) |
__fastfail | __declspec(noreturn) void __fastfail(unsigned int) |
__nop | void __nop(void) Hinweis: Auf ARM-Plattformen generiert diese Funktion eine NOP-Anweisung, wenn eine in der Zielarchitektur implementiert ist. Andernfalls wird eine alternative Anweisung, die den Status des Programms oder der CPU nicht ändert, generiert , z MOV r8, r8 . B. . . Es entspricht funktional dem __nop systemintern für andere Hardwarearchitekturen. Da eine Anweisung, die keine Auswirkungen auf den Zustand des Programms oder der CPU hat, von der Zielarchitektur als Optimierung ignoriert wird, verbraucht die Anweisung nicht unbedingt CPU-Zyklen. Verwenden Sie daher die systeminterne __nop nicht, um die Ausführungszeit einer Codesequenz zu bearbeiten, es sei denn, Sie sind sicher, wie sich die CPU verhält. Stattdessen können Sie die systeminterne __nop verwenden, um die nächste Anweisung an eine bestimmte 32-Bit-Begrenzungsadresse auszurichten. |
__yield | void __yield(void) Hinweis: Auf ARM-Plattformen generiert diese Funktion die YIELD-Anweisung, die angibt, dass der Thread eine Aufgabe ausführt, die vorübergehend von der Ausführung angehalten werden kann , z. B. ein Spinlock, ohne sich negativ auf das Programm zu auswirken. Sie ermöglicht es der CPU, andere Aufgaben während der Ausführungszyklen auszuführen, die andernfalls verschwendet würden. |
_AddressOfReturnAddress | void * _AddressOfReturnAddress(void) |
_BitScanForward | unsigned char _BitScanForward(unsigned long * _Index, unsigned long _Mask) |
_BitScanReverse | unsigned char _BitScanReverse(unsigned long * _Index, unsigned long _Mask) |
_bittest | unsigned char _bittest(long const *, long) |
_bittestandcomplement | nicht signiertes Zeichen _bittestandcomplement(long *, long) |
_bittestandreset | nicht signiertes Zeichen _bittestandreset(long *, long) |
_bittestandset | nicht signiertes Zeichen _bittestandset(long *, long) |
_byteswap_uint64 | nicht signierte __int64 __cdecl _byteswap_uint64(nicht signierte __int64) |
_byteswap_ulong | unsigned long __cdecl _byteswap_ulong(unsigned long) |
_byteswap_ushort | unsigned short __cdecl _byteswap_ushort(unsigned short) |
_disable | void __cdecl _disable(void) Hinweis: Auf ARM-Plattformen generiert diese Funktion die CPSID-Anweisung; sie ist nur als systemintern verfügbar. |
_enable | void __cdecl _enable(void) Hinweis: Auf ARM-Plattformen generiert diese Funktion die CPSIE-Anweisung; sie ist nur als systemintern verfügbar. |
_lrotl | unsigned long __cdecl _lrotl(unsigned long, int) |
_lrotr | unsigned long __cdecl _lrotr(unsigned long, int) |
_ReadBarrier | void _ReadBarrier(void) |
_ReadWriteBarrier | void _ReadWriteBarrier(void) |
_ReturnAddress | void * _ReturnAddress(void) |
_rotl | unsigned int __cdecl _rotl(unsigned int _Value, int _Shift) |
_rotl16 | unsigned short _rotl16(unsigned short _Value, unsigned char _Shift) |
_rotl64 | nicht signierte __int64 __cdecl _rotl64(nicht signierte __int64 _Value, int _Shift) |
_rotl8 | unsigned char _rotl8(unsigned char _Value, unsigned char _Shift) |
_rotr | unsigned int __cdecl _rotr(unsigned int _Value, int _Shift) |
_rotr16 | unsigned short _rotr16(unsigned short _Value, unsigned char _Shift) |
_rotr64 | unsigned __int64 __cdecl _rotr64(unsigned __int64 _Value, int _Shift) |
_rotr8 | unsigned char _rotr8(unsigned char _Value, unsigned char _Shift) |
_setjmpex | int __cdecl _setjmpex(jmp_buf) |
_WriteBarrier | void _WriteBarrier(void) |
Verriegelte systeminterne
Ineinandergreifende systeminterne Funktionen sind eine Reihe von systeminternen Funktionen, die zum Ausführen atomarer Lese-Änderungs-Schreib-Vorgänge verwendet werden. Einige davon sind auf allen Plattformen verfügbar. Sie werden hier separat aufgeführt, da es eine große Anzahl von ihnen gibt, aber da ihre Definitionen hauptsächlich redundant sind, ist es einfacher, sie in allgemeinen Begriffen zu berücksichtigen. Die genauen Verhaltensweisen können von den Namen abgeleitet werden.
In der folgenden Tabelle ist die ARM-Unterstützung der ineinandergreifenden systeminternen "non-bittest"-Funktionen zusammengefasst. Jede Zelle in der Tabelle entspricht einem Namen, der durch Anhängen des Vorgangsnamens in der am weitesten links befindlichen Zelle der Zeile und des Typnamens in der obersten Zelle der Spalte an _Interlocked
abgeleitet wird. Beispielsweise entspricht _InterlockedXor8
die Zelle am Schnittpunkt der Xor
Zeile und der 8
Spalte und wird vollständig unterstützt. Die meisten unterstützten Funktionen bieten diese optionalen Suffixe: _acq
, _rel
und _nf
. Das _acq
-Suffix gibt eine „Acquire“-Semantik zum Abrufen an, und das _rel
-Suffix gibt eine „Release“-Semantik zum Freigeben an. Das _nf
Suffix "Kein Zaun" ist einzigartig für ARM und wird im nächsten Abschnitt erläutert.
Vorgang | 8 | 16 | 32 | 64 | P |
---|---|---|---|---|---|
Add (Hinzufügen) | Keine | Keine | Vollständig | Vollständig | Keine |
Und | Vollständig | Vollständig | Vollständig | Vollständig | Keine |
CompareExchange | Vollständig | Vollständig | Vollständig | Vollständig | Vollständig |
Dekrement | Keine | Vollständig | Vollständig | Vollständig | Keine |
Exchange | Teilweise | Partial | Partial | Partial | Partial |
ExchangeAdd | Vollständig | Vollständig | Vollständig | Vollständig | Keine |
Increment | Keine | Vollständig | Vollständig | Vollständig | Keine |
Oder | Vollständig | Vollständig | Vollständig | Vollständig | Keine |
Xor | Vollständig | Vollständig | Vollständig | Vollständig | Keine |
Schlüssel:
Vollständig: unterstützt einfache,
_acq
,_rel
und_nf
Formulare.Teil: unterstützt einfache,
_acq
und_nf
Formulare.Keine: Nicht unterstützt
suffix _nf (kein Zaun)
Das _nf
Suffix oder "kein Zaun" gibt an, dass sich der Vorgang nicht als eine Art von Speicherbarriere verhält, im Gegensatz zu den anderen drei Formen (nur, _acq
und _rel
), die sich alle als eine Art von Barriere verhalten. Eine mögliche Verwendung der _nf
Formulare besteht darin, einen Statistikindikator beizubehalten, der von mehreren Threads gleichzeitig aktualisiert wird, deren Wert jedoch nicht andernfalls verwendet wird, während mehrere Threads ausgeführt werden.
Liste der systeminternen Verriegelungen
Funktionsname | Funktionsprototyp |
---|---|
_InterlockedAdd | long _InterlockedAdd(long _volatile *, long) |
_InterlockedAdd64 | __int64 _InterlockedAdd64(__int64 veränderlich *, __int64) |
_InterlockedAdd64_acq | __int64 _InterlockedAdd64_acq(__int64 veränderlich *, __int64) |
_InterlockedAdd64_nf | __int64 _InterlockedAdd64_nf(__int64 veränderlich *, __int64) |
_InterlockedAdd64_rel | __int64 _InterlockedAdd64_rel(__int64 veränderlich *, __int64) |
_InterlockedAdd_acq | long _InterlockedAdd_acq(long volatile *, long) |
_InterlockedAdd_nf | long _InterlockedAdd_nf(long volatile *, long) |
_InterlockedAdd_rel | long _InterlockedAdd_rel(long volatile *, long) |
_InterlockedAnd | long _InterlockedAnd(long volatile *, long) |
_InterlockedAnd16 | short _InterlockedAnd16(short volatile *, short) |
_InterlockedAnd16_acq | short _InterlockedAnd16_acq(short volatile *, short) |
_InterlockedAnd16_nf | short _InterlockedAnd16_nf(short volatile *, short) |
_InterlockedAnd16_rel | short _InterlockedAnd16_rel(short volatile *, short) |
_InterlockedAnd64 | __int64 _InterlockedAnd64(__int64 veränderlich *, __int64) |
_InterlockedAnd64_acq | __int64 _InterlockedAnd64_acq(__int64 veränderlich *, __int64) |
_InterlockedAnd64_nf | __int64 _InterlockedAnd64_nf(__int64 veränderlich *, __int64) |
_InterlockedAnd64_rel | __int64 _InterlockedAnd64_rel(__int64 veränderlich *, __int64) |
_InterlockedAnd8 | char _InterlockedAnd8(char volatile *, char) |
_InterlockedAnd8_acq | char _InterlockedAnd8_acq(char volatile *, char) |
_InterlockedAnd8_nf | char _InterlockedAnd8_nf(char volatile *, char) |
_InterlockedAnd8_rel | char _InterlockedAnd8_rel(char volatile *, char) |
_InterlockedAnd_acq | long _InterlockedAnd_acq(long volatile *, long) |
_InterlockedAnd_nf | long _InterlockedAnd_nf(long volatile *, long) |
_InterlockedAnd_rel | long _InterlockedAnd_rel(long volatile *, long) |
_InterlockedCompareExchange | long __cdecl _InterlockedCompareExchange(long volatile *, long, long) |
_InterlockedCompareExchange16 | short _InterlockedCompareExchange16(short volatile *, short, short) |
_InterlockedCompareExchange16_acq | short _InterlockedCompareExchange16_acq(short volatile *, short, short) |
_InterlockedCompareExchange16_nf | short _InterlockedCompareExchange16_nf(short volatile *, short, short) |
_InterlockedCompareExchange16_rel | short _InterlockedCompareExchange16_rel(short volatile *, short, short) |
_InterlockedCompareExchange64 | __int64 _InterlockedCompareExchange64(__int64 veränderlich *, __int64, __int64) |
_InterlockedCompareExchange64_acq | __int64 _InterlockedCompareExchange64_acq(__int64 veränderlich *, __int64, __int64) |
_InterlockedCompareExchange64_nf | __int64 _InterlockedCompareExchange64_nf(__int64 veränderlich *, __int64, __int64) |
_InterlockedCompareExchange64_rel | __int64 _InterlockedCompareExchange64_rel(__int64 veränderlich *, __int64, __int64) |
_InterlockedCompareExchange8 | char _InterlockedCompareExchange8(char volatile *, char, char) |
_InterlockedCompareExchange8_acq | char _InterlockedCompareExchange8_acq(char volatile *, char, char) |
_InterlockedCompareExchange8_nf | char _InterlockedCompareExchange8_nf(char volatile *, char, char) |
_InterlockedCompareExchange8_rel | char _InterlockedCompareExchange8_rel(char volatile *, char, char) |
_InterlockedCompareExchangePointer | void * _InterlockedCompareExchangePointer(void * volatile *, void *, void *, void *) |
_InterlockedCompareExchangePointer_acq | void * _InterlockedCompareExchangePointer_acq(void * volatile *, void *, void *, void *) |
_InterlockedCompareExchangePointer_nf | void * _InterlockedCompareExchangePointer_nf(void * volatile *, void *, void *, void *) |
_InterlockedCompareExchangePointer_rel | void * _InterlockedCompareExchangePointer_rel(void * volatile *, void *, void *, void *) |
_InterlockedCompareExchange_acq | long _InterlockedCompareExchange_acq(long volatile *, long, long) |
_InterlockedCompareExchange_nf | long _InterlockedCompareExchange_nf(long volatile *, long, long) |
_InterlockedCompareExchange_rel | long _InterlockedCompareExchange_rel(long volatile *, long, long) |
_InterlockedDecrement | long __cdecl _InterlockedDecrement(long volatile *) |
_InterlockedDecrement16 | short _InterlockedDecrement16(short volatile *) |
_InterlockedDecrement16_acq | short _InterlockedDecrement16_acq(short volatile *) |
_InterlockedDecrement16_nf | short _InterlockedDecrement16_nf(short volatile *) |
_InterlockedDecrement16_rel | short _InterlockedDecrement16_rel(short volatile *) |
_InterlockedDecrement64 | __int64 _InterlockedDecrement64(__int64 veränderlich *) |
_InterlockedDecrement64_acq | __int64 _InterlockedDecrement64_acq(__int64 veränderlich *) |
_InterlockedDecrement64_nf | __int64 _InterlockedDecrement64_nf(__int64 veränderlich *) |
_InterlockedDecrement64_rel | __int64 _InterlockedDecrement64_rel(__int64 veränderlich *) |
_InterlockedDecrement_acq | long _InterlockedDecrement_acq(long volatile *) |
_InterlockedDecrement_nf | long _InterlockedDecrement_nf(long volatile *) |
_InterlockedDecrement_rel | long _InterlockedDecrement_rel(long volatile *) |
_InterlockedExchange | long __cdecl _InterlockedExchange(long volatile * _Target, long) |
_InterlockedExchange16 | short _InterlockedExchange16(short volatile * _Target, short) |
_InterlockedExchange16_acq | short _InterlockedExchange16_acq(short volatile * _Target, short) |
_InterlockedExchange16_nf | short _InterlockedExchange16_nf(short volatile * _Target, short) |
_InterlockedExchange64 | __int64 _InterlockedExchange64(__int64 veränderlich * _Target, __int64) |
_InterlockedExchange64_acq | __int64 _InterlockedExchange64_acq(__int64 veränderlich * _Target, __int64) |
_InterlockedExchange64_nf | __int64 _InterlockedExchange64_nf(__int64 veränderlich * _Target, __int64) |
_InterlockedExchange8 | char _InterlockedExchange8(char volatile * _Target, char) |
_InterlockedExchange8_acq | char _InterlockedExchange8_acq(char volatile * _Target, char) |
_InterlockedExchange8_nf | char _InterlockedExchange8_nf(char volatile * _Target, char) |
_InterlockedExchangeAdd | long __cdecl _InterlockedExchangeAdd(long volatile *, long) |
_InterlockedExchangeAdd16 | short _InterlockedExchangeAdd16(short volatile *, short) |
_InterlockedExchangeAdd16_acq | short _InterlockedExchangeAdd16_acq(short volatile *, short) |
_InterlockedExchangeAdd16_nf | short _InterlockedExchangeAdd16_nf(short volatile *, short) |
_InterlockedExchangeAdd16_rel | short _InterlockedExchangeAdd16_rel(short volatile *, short) |
_InterlockedExchangeAdd64 | __int64 _InterlockedExchangeAdd64(__int64 veränderlich *, __int64) |
_InterlockedExchangeAdd64_acq | __int64 _InterlockedExchangeAdd64_acq(__int64 veränderlich *, __int64) |
_InterlockedExchangeAdd64_nf | __int64 _InterlockedExchangeAdd64_nf(__int64 veränderlich *, __int64) |
_InterlockedExchangeAdd64_rel | __int64 _InterlockedExchangeAdd64_rel(__int64 veränderlich *, __int64) |
_InterlockedExchangeAdd8 | char _InterlockedExchangeAdd8(char volatile *, char) |
_InterlockedExchangeAdd8_acq | char _InterlockedExchangeAdd8_acq(char volatile *, char) |
_InterlockedExchangeAdd8_nf | char _InterlockedExchangeAdd8_nf(char volatile *, char) |
_InterlockedExchangeAdd8_rel | char _InterlockedExchangeAdd8_rel(char volatile *, char) |
_InterlockedExchangeAdd_acq | long _InterlockedExchangeAdd_acq(long volatile *, long) |
_InterlockedExchangeAdd_nf | long _InterlockedExchangeAdd_nf(long volatile *, long) |
_InterlockedExchangeAdd_rel | long _InterlockedExchangeAdd_rel(long volatile *, long) |
_InterlockedExchangePointer | void * _InterlockedExchangePointer(void * volatile * _Target, void *) |
_InterlockedExchangePointer_acq | void * _InterlockedExchangePointer_acq(void * volatile * _Target, void *) |
_InterlockedExchangePointer_nf | void * _InterlockedExchangePointer_nf(void * volatile * _Target, void *) |
_InterlockedExchange_acq | long _InterlockedExchange_acq(long volatile * _Target, long) |
_InterlockedExchange_nf | long _InterlockedExchange_nf(long volatile * _Target, long) |
_InterlockedIncrement | long __cdecl _InterlockedIncrement(long volatile *) |
_InterlockedIncrement16 | short _InterlockedIncrement16(short volatile *) |
_InterlockedIncrement16_acq | short _InterlockedIncrement16_acq(short volatile *) |
_InterlockedIncrement16_nf | short _InterlockedIncrement16_nf(short volatile *) |
_InterlockedIncrement16_rel | short _InterlockedIncrement16_rel(short volatile *) |
_InterlockedIncrement64 | __int64 _InterlockedIncrement64(__int64 veränderlich *) |
_InterlockedIncrement64_acq | __int64 _InterlockedIncrement64_acq(__int64 veränderlich *) |
_InterlockedIncrement64_nf | __int64 _InterlockedIncrement64_nf(__int64 veränderlich *) |
_InterlockedIncrement64_rel | __int64 _InterlockedIncrement64_rel(__int64 veränderlich *) |
_InterlockedIncrement_acq | long _InterlockedIncrement_acq(long volatile *) |
_InterlockedIncrement_nf | long _InterlockedIncrement_nf(long volatile *) |
_InterlockedIncrement_rel | long _InterlockedIncrement_rel(long volatile *) |
_InterlockedOr | long _InterlockedOr(long volatile *, long) |
_InterlockedOr16 | short _InterlockedOr16(short volatile *, short) |
_InterlockedOr16_acq | short _InterlockedOr16_acq(short volatile *, short) |
_InterlockedOr16_nf | short _InterlockedOr16_nf(short volatile *, short) |
_InterlockedOr16_rel | short _InterlockedOr16_rel(short volatile *, short) |
_InterlockedOr64 | __int64 _InterlockedOr64(__int64 veränderlich *, __int64) |
_InterlockedOr64_acq | __int64 _InterlockedOr64_acq(__int64 veränderlich *, __int64) |
_InterlockedOr64_nf | __int64 _InterlockedOr64_nf(__int64 veränderlich *, __int64) |
_InterlockedOr64_rel | __int64 _InterlockedOr64_rel(__int64 veränderlich *, __int64) |
_InterlockedOr8 | char _InterlockedOr8(char volatile *, char) |
_InterlockedOr8_acq | char _InterlockedOr8_acq(char volatile *, char) |
_InterlockedOr8_nf | char _InterlockedOr8_nf(char volatile *, char) |
_InterlockedOr8_rel | char _InterlockedOr8_rel(char volatile *, char) |
_InterlockedOr_acq | long _InterlockedOr_acq(long volatile *, long) |
_InterlockedOr_nf | long _InterlockedOr_nf(long volatile *, long) |
_InterlockedOr_rel | long _InterlockedOr_rel(long volatile *, long) |
_InterlockedXor | long _InterlockedXor(long volatile *, long) |
_InterlockedXor16 | short _InterlockedXor16(short volatile *, short) |
_InterlockedXor16_acq | short _InterlockedXor16_acq(short volatile *, short) |
_InterlockedXor16_nf | short _InterlockedXor16_nf(short volatile *, short) |
_InterlockedXor16_rel | short _InterlockedXor16_rel(short volatile *, short) |
_InterlockedXor64 | __int64 _InterlockedXor64(__int64 veränderlich *, __int64) |
_InterlockedXor64_acq | __int64 _InterlockedXor64_acq(__int64 veränderlich *, __int64) |
_InterlockedXor64_nf | __int64 _InterlockedXor64_nf(__int64 veränderlich *, __int64) |
_InterlockedXor64_rel | __int64 _InterlockedXor64_rel(__int64 veränderlich *, __int64) |
_InterlockedXor8 | char _InterlockedXor8(char volatile *, char) |
_InterlockedXor8_acq | char _InterlockedXor8_acq(char volatile *, char) |
_InterlockedXor8_nf | char _InterlockedXor8_nf(char volatile *, char) |
_InterlockedXor8_rel | char _InterlockedXor8_rel(char volatile *, char) |
_InterlockedXor_acq | long _InterlockedXor_acq(long volatile *, long) |
_InterlockedXor_nf | long _InterlockedXor_nf(long volatile *, long) |
_InterlockedXor_rel | long _InterlockedXor_rel(long volatile *, long) |
systeminterne _interlockedbittest
Die reinen interlockierten Bittests sind für alle Plattformen üblich. ARM fügt _acq
, _rel
und _nf
Varianten hinzu, die nur die Barrieresemantik eines Vorgangs ändern, wie in _nf (kein Zaun) Suffix weiter oben in diesem Artikel beschrieben.
Funktionsname | Funktionsprototyp |
---|---|
_interlockedbittestandreset | nicht signierte Zeichen _interlockedbittestandreset(long volatile *, long) |
_interlockedbittestandreset_acq | nicht signiertes Zeichen _interlockedbittestandreset_acq(long volatile *, long) |
_interlockedbittestandreset_nf | nicht signiertes Zeichen _interlockedbittestandreset_nf(long volatile *, long) |
_interlockedbittestandreset_rel | nicht signierte Zeichen _interlockedbittestandreset_rel(long volatile *, long) |
_interlockedbittestandset | nicht signiertes Zeichen _interlockedbittestandset(long volatile *, long) |
_interlockedbittestandset_acq | nicht signierte Zeichen _interlockedbittestandset_acq(long volatile *, long) |
_interlockedbittestandset_nf | nicht signierte Zeichen _interlockedbittestandset_nf(long volatile *, long) |
_interlockedbittestandset_rel | nicht signierte Zeichen _interlockedbittestandset_rel(long volatile *, long) |
Siehe auch
Intrinsische Compilerfunktionen
Systeminterne ARM64-Funktionen
Referenz zum ARM-Assembler
C#-Programmiersprachenreferenz