Een Azure OpenAI-service instellen in uw tenant
In dit artikel wordt beschreven hoe u aan de slag gaat met Azure OpenAI Service en vindt u stapsgewijze instructies voor het maken van een resource en het implementeren van een model. U kunt op verschillende manieren resources maken in Azure:
!! opmerking Vereisten
- Een Azure-abonnement. [Maak er gratis een](https://azure.microsoft.com/en-us/pricing/purchase-options/azure-account?icid=ai-services).
- Krijg toegang tot machtigingen om [ Azure OpenAI-resources te maken en modellen te implementeren](https://learn.microsoft.com/en-us/azure/ai-services/openai/how-to/role-based-access-control).
Implementatie via ARM-sjabloon
Klik op de onderstaande knop om een Azure OpenAI-service te maken: Implementeren naar Azure
Implementatie via portal
In de volgende stappen ziet u hoe u een Azure OpenAI-resource maakt in de Azure Portal.
Identificeer de bron
- Meld u aan met uw Azure-abonnement in de Azure Portal.
- Selecteer Een resource maken en zoek naar Azure OpenAI. Wanneer u de service vindt, selecteert u Maken.
Geef op de pagina Azure OpenAI maken de volgende informatie op voor de velden op het tabblad Basisprincipes: | Gebied | Beschrijving | |------------------|---------------| | Abonnement | Het Azure-abonnement dat wordt gebruikt in uw Azure OpenAI Service-onboarding-toepassing. | | Resourcegroep | De Azure-resourcegroep die uw Azure OpenAI-resource moet bevatten. U kunt een nieuwe groep maken of een reeds bestaande groep gebruiken. | | Regio | De locatie van uw exemplaar. Verschillende locaties kunnen latentie introduceren, maar ze hebben geen invloed op de beschikbaarheid van de runtime van uw resource. | | Naam | Een beschrijvende naam voor uw Azure OpenAI Service-resource, zoals MyOpenAIResource. | | Prijscategorie | De prijscategorie voor de resource. Momenteel is alleen de Standard-laag beschikbaar voor de Azure OpenAI-service. Ga voor meer informatie over prijzen naar de pagina met prijzen Azure OpenAI-prijzen. |
Selecteer Volgende.
Netwerkbeveiliging configureren
Op het tabblad Netwerk vindt u drie opties voor het beveiligingstype:
- Optie 1: Alle netwerken, inclusief internet, hebben toegang tot deze bron.
- Optie 2: Geselecteerde netwerken, configureer netwerkbeveiliging voor uw Azure AI-servicesresource.
- Optie 3: Uitgeschakeld, geen enkel netwerk heeft toegang tot deze bron. U kunt privé-eindpuntverbindingen configureren die de exclusieve manier zijn om toegang te krijgen tot deze resource.
Notitie
Voor Business Central Online moet u altijd Optie 1 selecteren.
Bevestig de configuratie en maak de resource
- Selecteer Volgende en configureer eventuele tags voor uw resource, zoals gewenst.
- Selecteer Volgende om naar de laatste fase van het proces te gaan: Controleren + verzenden.
- Bevestig uw configuratie-instellingen en selecteer Maken.
- In de Azure Portal wordt een melding weergegeven wanneer de nieuwe resource beschikbaar is. Selecteer Ga naar resource.
Een model implementeren
Voordat u tekst of deductie kunt genereren, moet u een model implementeren. U kunt kiezen uit een van de verschillende beschikbare modellen in Azure AI Foundry Portal.
Ga als volgt te werk om een model te implementeren:
- Meld u aan bij Azure AI Foundry-portal.
- Kies het abonnement en de Azure OpenAI-resource om mee te werken en selecteer resource gebruiken.
- Selecteer onder Beheer de optie Implementaties.
Selecteer Nieuwe implementatie maken en configureer de volgende velden:
| Gebied | Beschrijving |
|--------------------------------|---------------|
| Selecteer een model | De beschikbaarheid van modellen verschilt per regio. Voor een lijst met beschikbare modellen per regio, zie Overzichtstabel van het model en de beschikbaarheid van regio's. |
| Naam implementatie | Kies zorgvuldig een naam. De implementatienaam wordt in uw code gebruikt om het model aan te roepen met behulp van de clientbibliotheken en de REST API's. |
| Type implementatie | Standaard, Global-Batch, Global-Standard, Provisioned-Managed. Meer informatie over opties voor implementatietypen. |
| Geavanceerde opties (optioneel) | U kunt optionele geavanceerde instellingen instellen, indien nodig voor uw resource.
- Inhoudsfilter: Wijs een inhoudsfilter toe aan uw implementatie.
- Tokens per minuut snelheidslimiet: pas de tokens per minuut (TPM) aan om de effectieve snelheidslimiet voor uw implementatie in te stellen. U kunt deze waarde op elk gewenst moment wijzigen met behulp van het menu Quota. Met dynamische quota kunt u profiteren van meer quota wanneer er extra capaciteit beschikbaar is. |
Selecteer een model in de vervolgkeuzelijst.
- Voer een implementatienaam in om het model te identificeren.
- Voor de eerste implementatie laat u de geavanceerde opties ingesteld op de standaardinstellingen.
- Selecteer Maken.
!! opmerking Belangrijk Wanneer u het model via de API opent, moet u verwijzen naar de implementatienaam in plaats van de onderliggende modelnaam in API-aanroepen, wat een van de belangrijkste verschillen is tussen OpenAI en Azure OpenAI. OpenAI vereist alleen de modelnaam. Azure OpenAI vereist altijd de implementatienaam, zelfs wanneer u de modelparameter gebruikt. In onze documenten hebben we vaak voorbeelden waarin implementatienamen worden weergegeven als identiek aan modelnamen om aan te geven welk model werkt met een bepaald API-eindpunt. Uiteindelijk kunnen uw implementatienamen de naamgevingsconventie volgen die het beste is voor uw use case. In de tabel met implementaties wordt een nieuwe vermelding weergegeven die overeenkomt met uw nieuw gemaakte model. Wanneer de implementatie is voltooid, verandert de status van uw modelimplementatie in Geslaagd.
Inloggegevens ophalen
Nadat u een implementatie hebt gemaakt, kunt u de referenties ophalen in de Azure AI Foundry-portal . Haal op de pagina Overzicht de eigenschappen op uit de velden Azure OpenAI Service-eindpunt en API-sleutel 1 of API-sleutel 2. Het eindpunt moet er als volgt uitzien https://{your-ressource-name}.openai.azure.com/. Ga nu naar de sectie Implementaties, die zich in het menu aan de linkerkant bevindt en haal de eigenschap van de kolom Naam op om later de Document Dispatch - Copilot-configuratie in Business Central in te vullen.
Notitie
Vanaf 17/3/2025 testen we met het Gpt-4o-model. Dit model is getest met ou copiloot capaciteiten, als u een ander model gebruikt, kunnen we u niet garanderen dat het model zal werken zoals verwacht.