Freigeben über


MediaSync Klasse

Definition

Die MediaSync-Klasse kann verwendet werden, um Audio- und Videodatenströme synchron wiederzugeben.

[Android.Runtime.Register("android/media/MediaSync", ApiSince=23, DoNotGenerateAcw=true)]
public sealed class MediaSync : Java.Lang.Object
[<Android.Runtime.Register("android/media/MediaSync", ApiSince=23, DoNotGenerateAcw=true)>]
type MediaSync = class
    inherit Object
Vererbung
MediaSync
Attribute

Hinweise

Die MediaSync-Klasse kann verwendet werden, um Audio- und Videodatenströme synchron wiederzugeben. Sie kann auch zum Wiedergeben von Nur-Audio- oder Videodatenstrom verwendet werden.

MediaSync wird in der Regel wie folgt verwendet:

MediaSync sync = new MediaSync();
            sync.setSurface(surface);
            Surface inputSurface = sync.createInputSurface();
            ...
            // MediaCodec videoDecoder = ...;
            videoDecoder.configure(format, inputSurface, ...);
            ...
            sync.setAudioTrack(audioTrack);
            sync.setCallback(new MediaSync.Callback() {
                {@literal @Override}
                public void onAudioBufferConsumed(MediaSync sync, ByteBuffer audioBuffer, int bufferId) {
                    ...
                }
            }, null);
            // This needs to be done since sync is paused on creation.
            sync.setPlaybackParams(new PlaybackParams().setSpeed(1.f));

            for (;;) {
              ...
              // send video frames to surface for rendering, e.g., call
              // videoDecoder.releaseOutputBuffer(videoOutputBufferIx, videoPresentationTimeNs);
              // More details are available as below.
              ...
              sync.queueAudio(audioByteBuffer, bufferId, audioPresentationTimeUs); // non-blocking.
              // The audioByteBuffer and bufferId will be returned via callback.
              // More details are available as below.
              ...
                ...
            }
            sync.setPlaybackParams(new PlaybackParams().setSpeed(0.f));
            sync.release();
            sync = null;

            // The following code snippet illustrates how video/audio raw frames are created by
            // MediaCodec's, how they are fed to MediaSync and how they are returned by MediaSync.
            // This is the callback from MediaCodec.
            onOutputBufferAvailable(MediaCodec codec, int bufferId, BufferInfo info) {
                // ...
                if (codec == videoDecoder) {
                    // surface timestamp must contain media presentation time in nanoseconds.
                    codec.releaseOutputBuffer(bufferId, 1000 * info.presentationTime);
                } else {
                    ByteBuffer audioByteBuffer = codec.getOutputBuffer(bufferId);
                    sync.queueAudio(audioByteBuffer, bufferId, info.presentationTime);
                }
                // ...
            }

            // This is the callback from MediaSync.
            onAudioBufferConsumed(MediaSync sync, ByteBuffer buffer, int bufferId) {
                // ...
                audioDecoder.releaseBuffer(bufferId, false);
                // ...
            }

Der Client muss die entsprechende Spüle konfigurieren, indem das Surface und/oder AudioTrack basierend auf dem Streamtyp festgelegt wird, der wiedergegeben wird.

Für Video muss der Client aufrufen #createInputSurface , um eine Oberfläche abzurufen, auf der Videoframes gerendert werden.

Für Audio muss der Client die Audiospur ordnungsgemäß einrichten, z. B. mithilfe von AudioTrack#MODE_STREAM. Die Audiopuffer werden direkt über #queueAudioMediaSync an MediaSync gesendet und über Callback#onAudioBufferConsumed asynchron an den Client zurückgegeben. Der Client sollte keinen Audiopuffer ändern, bis er zurückgegeben wird.

Der Client kann optional Audio-/Videopuffer vorab ausfüllen, indem die Wiedergaberate auf 0,0 festgelegt und dann Audio-/Videopuffer an entsprechende Komponenten übertragen werden. Dies kann mögliche anfängliche Unterläufe reduzieren.

Java-Dokumentation für android.media.MediaSync.

Teile dieser Seite sind Änderungen auf der Grundlage von Arbeiten, die vom Android Open Source-Projekt erstellt und freigegeben werden und gemäß den in der Creative Commons 2.5 Attribution License beschriebenen Begriffen verwendet werden.

Konstruktoren

MediaSync()

Klassenkonstruktor.

Eigenschaften

Class

Gibt die Laufzeitklasse dieses Werts Objectzurück.

(Geerbt von Object)
Handle

Das Handle für die zugrunde liegende Android-Instanz.

(Geerbt von Object)
JniIdentityHashCode

Die MediaSync-Klasse kann verwendet werden, um Audio- und Videodatenströme synchron wiederzugeben.

(Geerbt von Object)
JniPeerMembers

Die MediaSync-Klasse kann verwendet werden, um Audio- und Videodatenströme synchron wiederzugeben.

PeerReference

Die MediaSync-Klasse kann verwendet werden, um Audio- und Videodatenströme synchron wiederzugeben.

(Geerbt von Object)
PlaybackParams

Ruft die Wiedergaberate mit PlaybackParams. -oder- Legt die Wiedergaberate mithilfe von PlaybackParams.

SyncParams

Ruft den A/V-Synchronisierungsmodus ab. -oder- Legt den A/V-Synchronisierungsmodus fest.

ThresholdClass

Diese API unterstützt die Mono für Android-Infrastruktur und ist nicht für die direkte Verwendung aus Ihrem Code vorgesehen.

(Geerbt von Object)
ThresholdType

Diese API unterstützt die Mono für Android-Infrastruktur und ist nicht für die direkte Verwendung aus Ihrem Code vorgesehen.

(Geerbt von Object)
Timestamp

Aktuelle Wiedergabeposition abrufen.

Methoden

Clone()

Erstellt und gibt eine Kopie dieses Objekts zurück.

(Geerbt von Object)
CreateInputSurface()

Fordert ein Surface an, das als Eingabe verwendet werden soll.

Dispose()

Die MediaSync-Klasse kann verwendet werden, um Audio- und Videodatenströme synchron wiederzugeben.

(Geerbt von Object)
Dispose(Boolean)

Die MediaSync-Klasse kann verwendet werden, um Audio- und Videodatenströme synchron wiederzugeben.

(Geerbt von Object)
Equals(Object)

Gibt an, ob ein anderes Objekt "gleich" diesem Objekt ist.

(Geerbt von Object)
Flush()

Löscht alle Puffer aus dem Synchronisierungsobjekt.

GetHashCode()

Gibt einen Hashcodewert für das Objekt zurück.

(Geerbt von Object)
JavaFinalize()

Wird vom Garbage Collector für ein Objekt aufgerufen, wenn die Garbage Collection bestimmt, dass keine weiteren Verweise auf das Objekt vorhanden sind.

(Geerbt von Object)
Notify()

Aktiviert einen einzelnen Thread, der auf dem Monitor dieses Objekts wartet.

(Geerbt von Object)
NotifyAll()

Aktiviert alle Threads, die auf dem Monitor dieses Objekts warten.

(Geerbt von Object)
QueueAudio(ByteBuffer, Int32, Int64)

Stellt die Audiodaten asynchron für die Wiedergabe in die Warteschlange (AudioTrack muss sich im Streamingmodus befinden).

Release()

Stellen Sie sicher, dass Sie dies aufrufen, wenn Sie damit fertig sind, eine geöffnete Komponenteninstanz freizugeben, anstatt sich auf den Garbage Collector zu verlassen, um dies für Sie zu einem bestimmten Zeitpunkt in Der Zukunft zu tun.

SetAudioTrack(AudioTrack)

Legt die Audiospur für MediaSync fest.

SetCallback(MediaSync+Callback, Handler)

Legt einen asynchronen Rückruf für Aktionen erfordernde MediaSync-Ereignisse fest.

SetHandle(IntPtr, JniHandleOwnership)

Legt die Handle-Eigenschaft fest.

(Geerbt von Object)
SetOnErrorListener(MediaSync+IOnErrorListener, Handler)

Legt einen asynchronen Rückruf für Fehlerereignisse fest.

SetSurface(Surface)

Legt die Ausgabeoberfläche für MediaSync fest.

ToArray<T>()

Die MediaSync-Klasse kann verwendet werden, um Audio- und Videodatenströme synchron wiederzugeben.

(Geerbt von Object)
ToString()

Gibt eine Zeichenfolgendarstellung des Objekts zurück.

(Geerbt von Object)
UnregisterFromRuntime()

Die MediaSync-Klasse kann verwendet werden, um Audio- und Videodatenströme synchron wiederzugeben.

(Geerbt von Object)
Wait()

Bewirkt, dass der aktuelle Thread wartet, bis er wach ist, in der Regel durch em benachrichtigt/em> oder <em>unterbrochen</em>.<><

(Geerbt von Object)
Wait(Int64)

Bewirkt, dass der aktuelle Thread wartet, bis er wach ist, in der Regel durch <em>benachrichtigt</em> oder <em>unterbrochen</em> oder bis eine bestimmte Menge an Echtzeit verstrichen ist.

(Geerbt von Object)
Wait(Int64, Int32)

Bewirkt, dass der aktuelle Thread wartet, bis er wach ist, in der Regel durch <em>benachrichtigt</em> oder <em>unterbrochen</em> oder bis eine bestimmte Menge an Echtzeit verstrichen ist.

(Geerbt von Object)

Explizite Schnittstellenimplementierungen

IJavaPeerable.Disposed()

Die MediaSync-Klasse kann verwendet werden, um Audio- und Videodatenströme synchron wiederzugeben.

(Geerbt von Object)
IJavaPeerable.DisposeUnlessReferenced()

Die MediaSync-Klasse kann verwendet werden, um Audio- und Videodatenströme synchron wiederzugeben.

(Geerbt von Object)
IJavaPeerable.Finalized()

Die MediaSync-Klasse kann verwendet werden, um Audio- und Videodatenströme synchron wiederzugeben.

(Geerbt von Object)
IJavaPeerable.JniManagedPeerState

Die MediaSync-Klasse kann verwendet werden, um Audio- und Videodatenströme synchron wiederzugeben.

(Geerbt von Object)
IJavaPeerable.SetJniIdentityHashCode(Int32)

Die MediaSync-Klasse kann verwendet werden, um Audio- und Videodatenströme synchron wiederzugeben.

(Geerbt von Object)
IJavaPeerable.SetJniManagedPeerState(JniManagedPeerStates)

Die MediaSync-Klasse kann verwendet werden, um Audio- und Videodatenströme synchron wiederzugeben.

(Geerbt von Object)
IJavaPeerable.SetPeerReference(JniObjectReference)

Die MediaSync-Klasse kann verwendet werden, um Audio- und Videodatenströme synchron wiederzugeben.

(Geerbt von Object)

Erweiterungsmethoden

JavaCast<TResult>(IJavaObject)

Führt eine android-laufzeitgecheckte Typkonvertierung aus.

JavaCast<TResult>(IJavaObject)

Die MediaSync-Klasse kann verwendet werden, um Audio- und Videodatenströme synchron wiederzugeben.

GetJniTypeName(IJavaPeerable)

Die MediaSync-Klasse kann verwendet werden, um Audio- und Videodatenströme synchron wiederzugeben.

Gilt für: