Introduzione all'uso di funzionalità supportate dall'intelligenza artificiale e APIs nell'app di Windows
Windows Copilot Runtime offre un'ampia gamma di funzionalità supportate dall'intelligenza artificiale e APIs che consentono di sfruttare le funzionalità di intelligenza artificiale senza la necessità di trovare, eseguire o ottimizzare il proprio modello di Machine Learning (ML). I modelli che alimentano Windows Copilot Runtime nei PC Copilot+ funzionano in locale e in background in ogni momento.
Quando si usano le funzionalità di intelligenza artificiale, è consigliabile esaminare: Sviluppo di applicazioni e funzionalità di intelligenza artificiale responsabile in Windows.
Windows Copilot Runtime funzionalità e APIs per le app di Windows
Windows Copilot Runtime include le funzionalità seguenti e i APIs supportati dall'intelligenza artificiale (nel Windows App SDK) basati su modelli eseguiti localmente nel dispositivo Windows.
Phi Silica: Non ancora disponibile. Il APIs Phi Silica sarà incluso nella Windows App SDK. Analogamente a GPT Large Language Model (LLM) di OpenAI che supporta ChatGPT, Phi è un modello SLM (Small Language Model) sviluppato da Microsoft Research per eseguire attività di elaborazione del linguaggio in un dispositivo locale. Phi Silica è progettato appositamente per i dispositivi Windows con un'unità di elaborazione neurale (NPU), consentendo l'esecuzione delle funzionalità di generazione di testo e conversazione in modo rapido e a prestazioni elevate direttamente sul dispositivo.
Text Recognition conOCR : Non ancora disponibile. Il Text RecognitionAPIs (detto anche riconoscimento ottico dei caratteri o OCR) verrà fornito nel Windows App SDK. Queste APIs consentono il riconoscimento del testo in un'immagine e la conversione di diversi tipi di documenti (ad esempio documenti cartacei digitalizzati, file PDF o immagini acquisiti da una fotocamera digitale) in dati modificabili e ricercabili in un dispositivo locale.
Imaging APIs: Non ancora disponibile. L'APIs di imaging avanzato per intelligenza artificiale verrà fornito nel Windows App SDK. Questi APIs eseguono diverse azioni, come il ridimensionamento intelligente delle immagini e l'identificazione di oggetti all'interno delle immagini.
Studio Effects: Disponibile in Windows 11, versione 22H2 o successiva (Build 22623.885+), sui PC Copilot+. I dispositivi Windows con unità di elaborazione neurali compatibili integrano Studio Effects nelle impostazioni predefinite della fotocamera e del microfono del dispositivo. Applicare effetti speciali che utilizzano l'intelligenza artificiale, tra cui: Sfocatura dello sfondo, Correzione automatica dei contatti oculari, Correzione verticale della luce verticale, Filtri creativi o Stato attivo vocale per filtrare il rumore di fondo.
Recall: disponibile per l'anteprima tramite il Programma Windows Insiders su PC Copilot+Recall consente agli utenti di trovare rapidamente elementi della loro attività precedente, ad esempio documenti, immagini, siti web e altro ancora. Gli sviluppatori possono arricchire l'esperienza Recall dell'utente con la loro app, aggiungendo informazioni contestuali al database vettoriale sottostante tramite l'API Attività Utente . Questa integrazione consentirà agli utenti di riprendere la posizione in cui sono rimasti nell'app, migliorando l'engagement delle app e il flusso facile dell'utente tra Windows e l'app.
Live Caption Translations aiutano tutti gli utenti di Windows, inclusi coloro che sono sordi o ipoacusici, a comprendere meglio l'audio visualizzando sottotitoli di contenuto parlato (anche quando il contenuto audio è in una lingua diversa dalla lingua preferita del sistema).
APIs basate sul cloud supportate dall'intelligenza artificiale per le app di Windows
Potresti anche essere interessato a usare APIs che eseguono modelli nel cloud per sfruttare le funzionalità di intelligenza artificiale che possono essere aggiunte all'app di Windows. Alcuni esempi di intelligenza artificiale basata sul cloud offerti APIs da Microsoft o OpenAI includono:
Aggiungere completamenti della chat OpenAI all'app desktop WinUI 3/SDK per app di Windows: esercitazione su come integrare le funzionalità di completamento OpenAI ChatGPT basate sul cloud in un'app desktop WinUI 3/SDK per app di Windows.
Aggiungere DALL-E all'app desktop WinUI 3/SDK per app di Windows: esercitazione su come integrare le funzionalità di generazione di immagini DALL-E openAI basate sul cloud in un'app desktop WinUI 3/SDK per app di Windows.
Creare un'app di raccomandazione con .NET MAUI e ChatGPT: esercitazione su come creare un'app di raccomandazione di esempio che integra le funzionalità di completamento OpenAI ChatGPT basate sul cloud in un'app MAUI .NET.
Aggiungere DALL-E all'app desktop windows .NET MAUI: esercitazione su come integrare le funzionalità di generazione di immagini DALL-E basate sul cloud in un'app MAUI .NET.
Servizio OpenAI di Azure: se si vuole che l'app Windows accinga ai modelli OpenAI, ad esempio GPT-4, GPT-4 Turbo with Vision, GPT-3.5-Turbo, DALLE-3 o la serie di modelli embeddings, con le funzionalità di sicurezza e aziendali aggiunte di Azure, è possibile trovare indicazioni in questa documentazione di Azure OpenAI.
Servizi di intelligenza artificiale di Azure: Azure offre un'intera suite di servizi di intelligenza artificiale disponibili tramite GLI SDK della libreria REST APIs e client nei linguaggi di sviluppo più diffusi. Per altre informazioni, vedere la documentazione di ogni servizio. Questi servizi basati sul cloud aiutano sviluppatori e organizzazioni a creare rapidamente applicazioni intelligenti, all'avanguardia, pronte per il mercato e responsabili con modelli predefiniti e predefiniti e personalizzabili APIs . Le applicazioni di esempio includono elaborazione del linguaggio naturale per conversazioni, ricerca, monitoraggio, traduzione, riconoscimento vocale, visione e processo decisionale.
Considerazioni sull'uso dell'intelligenza artificiale APIs locale e basata sul cloud nell'app di Windows
Quando si decide di usare un'API nell'app di Windows che si basa sull'esecuzione di un modello di Machine Learning in locale rispetto al cloud, esistono diversi vantaggi e svantaggi da considerare.
Disponiiblità delle risorse
- Dispositivo locale: l'esecuzione di un modello dipende dalle risorse disponibili nel dispositivo in uso, tra cui CPU, GPU, NPU, memoria e capacità di archiviazione. Ciò può essere limitato se il dispositivo non ha una potenza di calcolo elevata o un'archiviazione sufficiente. I modelli linguistici di piccole dimensioni, come Phi, sono più ideali per l'uso in locale in un dispositivo.
- Cloud: le piattaforme cloud, ad esempio Azure, offrono risorse scalabili. È possibile usare la potenza di calcolo o lo spazio di archiviazione necessario e pagare solo per ciò che si usa. I modelli di linguaggio di grandi dimensioni, come i modelli linguistici OpenAI, richiedono più risorse, ma sono anche più potenti.
Privacy e sicurezza dei dati
- Dispositivo locale: poiché i dati rimangono nel dispositivo, l'esecuzione di un modello in locale può essere più sicura e privata. La responsabilità della sicurezza dei dati dipende dall'utente.
- Cloud: i provider di servizi cloud offrono misure di sicurezza affidabili, ma i dati devono essere trasferiti nel cloud, che potrebbero generare problemi di privacy dei dati in alcuni casi.
Accessibilità e collaborazione
- Dispositivo locale: il modello e i dati sono accessibili solo nel dispositivo, a meno che non vengano condivisi manualmente. Ciò ha il potenziale per rendere più complessa la collaborazione sui dati del modello.
- Cloud: è possibile accedere al modello e ai dati da qualsiasi posizione con connettività Internet. Questo può essere migliore per gli scenari di collaborazione.
Costii
- Dispositivo locale: non sono previsti costi aggiuntivi oltre l'investimento iniziale nel dispositivo.
- Cloud: mentre le piattaforme cloud operano su un modello con pagamento in base al consumo, i costi possono accumularsi in base alle risorse usate e alla durata dell'utilizzo.
Manutenzione e aggiornamenti
- Dispositivo locale: l'utente è responsabile della gestione del sistema e dell'installazione degli aggiornamenti.
- Cloud: manutenzione, aggiornamenti del sistema e nuovi aggiornamenti delle funzionalità vengono gestiti dal provider di servizi cloud, riducendo il sovraccarico di manutenzione per l'utente.
Vedere Esecuzione di un modello linguistico di piccole dimensioni in locale rispetto a un modello linguistico di grandi dimensioni nel cloud per altre informazioni sulle differenze tra l'esecuzione di un modello SLM (Small Language Model) in locale e l'esecuzione di un modello LLM (Large Language Model) nel cloud.