Trascrivere file audio con la funzione ML.TRANSCRIBE

Questo documento descrive come utilizzare la funzione ML.TRANSCRIBE con un modello remoto per trascrivere file audio da una tabella di oggetti.

Località supportate

Devi creare il modello remoto utilizzato in questa procedura in una delle seguenti località:

  • asia-northeast1
  • asia-south1
  • asia-southeast1
  • australia-southeast1
  • eu
  • europe-west1
  • europe-west2
  • europe-west3
  • europe-west4
  • northamerica-northeast1
  • us
  • us-central1
  • us-east1
  • us-east4
  • us-west1

Devi eseguire la funzione ML.TRANSCRIBE nella stessa regione del modello remoto.

Autorizzazioni obbligatorie

  • Per utilizzare un riconoscimento di Speech-to-Text, devi disporre dei seguenti ruoli:

    • speech.recognizers.create
    • speech.recognizers.get
    • speech.recognizers.recognize
    • speech.recognizers.update
  • Per creare una connessione, devi disporre del seguente ruolo:

    • roles/bigquery.connectionAdmin
  • Per creare il modello utilizzando BigQuery ML, è necessario quanto segue autorizzazioni:

    • bigquery.jobs.create
    • bigquery.models.create
    • bigquery.models.getData
    • bigquery.models.updateData
    • bigquery.models.updateMetadata
  • Per eseguire l'inferenza, devi disporre delle seguenti autorizzazioni:

    • bigquery.tables.getData nella tabella degli oggetti
    • bigquery.models.getData sul modello
    • bigquery.jobs.create

Prima di iniziare

  1. Sign in to your Google Cloud account. If you're new to Google Cloud, create an account to evaluate how our products perform in real-world scenarios. New customers also get $300 in free credits to run, test, and deploy workloads.
  2. In the Google Cloud console, on the project selector page, select or create a Google Cloud project.

    Go to project selector

  3. Make sure that billing is enabled for your Google Cloud project.

  4. Enable the BigQuery, BigQuery Connection API, and Speech-to-Text APIs.

    Enable the APIs

  5. In the Google Cloud console, on the project selector page, select or create a Google Cloud project.

    Go to project selector

  6. Make sure that billing is enabled for your Google Cloud project.

  7. Enable the BigQuery, BigQuery Connection API, and Speech-to-Text APIs.

    Enable the APIs

Crea un riconoscimento

Speech-to-Text supporta risorse chiamate riconoscimenti. I riconoscimenti rappresentano configurazioni di riconoscimento memorizzate e riutilizzabili. Puoi creare un riconoscitore per raggruppare logicamente le trascrizioni o il traffico per la tua applicazione.

La creazione di un riconoscitore vocale è facoltativa. Se scegli di creare un riconoscimento vocale, annota l'ID progetto, la posizione e l'ID del riconoscimento per utilizzarli nell'istruzione CREATE MODEL, come descritto in SPEECH_RECOGNIZER. Se scegli di non creare un riconoscitore vocale, devi specificare un valore per l'argomento recognition_config della funzione ML.TRANSCRIBE.

Puoi usare soltanto chirp modello di trascrizione nel riconoscimento vocale o nel valore recognition_config che fornisci.

Crea una connessione

Crea una connessione risorsa cloud e recupera l'account di servizio della connessione.

Seleziona una delle seguenti opzioni:

Console

  1. Vai alla pagina BigQuery.

    Vai a BigQuery

  2. Per creare una connessione, fai clic su Aggiungi e poi su Connessioni a origini dati esterne.

  3. Nell'elenco Tipo di connessione, seleziona Modelli remoti di Vertex AI, funzioni remote e BigLake (risorsa Cloud).

  4. Nel campo ID connessione, inserisci un nome per la connessione.

  5. Fai clic su Crea connessione.

  6. Fai clic su Vai alla connessione.

  7. Nel riquadro Informazioni sulla connessione, copia l'ID account di servizio da utilizzare in una passaggio successivo.

bq

  1. In un ambiente a riga di comando, crea una connessione:

    bq mk --connection --location=REGION --project_id=PROJECT_ID \
        --connection_type=CLOUD_RESOURCE CONNECTION_ID

    Il parametro --project_id sostituisce il progetto predefinito.

    Sostituisci quanto segue:

    • REGION: la regione di connessione
    • PROJECT_ID: il tuo ID progetto Google Cloud
    • CONNECTION_ID: un ID per la connessione

    Quando crei una risorsa di connessione, BigQuery crea un account di servizio di sistema unico e lo associa alla connessione.

    Risoluzione dei problemi: se ricevi il seguente errore di connessione, Aggiorna Google Cloud SDK:

    Flags parsing error: flag --connection_type=CLOUD_RESOURCE: value should be one of...
    
  2. Recupera e copia l'ID account di servizio per utilizzarlo in un passaggio successivo:

    bq show --connection PROJECT_ID.REGION.CONNECTION_ID

    L'output è simile al seguente:

    name                          properties
    1234.REGION.CONNECTION_ID     {"serviceAccountId": "connection-1234-9u56h9@gcp-sa-bigquery-condel.iam.gserviceaccount.com"}
    

Terraform

Aggiungi la seguente sezione al file main.tf.

 ## This creates a cloud resource connection.
 ## Note: The cloud resource nested object has only one output only field - serviceAccountId.
 resource "google_bigquery_connection" "connection" {
    connection_id = "CONNECTION_ID"
    project = "PROJECT_ID"
    location = "REGION"
    cloud_resource {}
}        
Sostituisci quanto segue:

  • CONNECTION_ID: un ID per la connessione
  • PROJECT_ID: il tuo ID progetto Google Cloud
  • REGION: il tuo regione di connessione

Concedi l'accesso all'account di servizio

Seleziona una delle seguenti opzioni:

Console

  1. Vai alla pagina IAM e amministrazione.

    Vai a IAM e amministrazione

  2. Fai clic su Concedi l'accesso.

    Viene visualizzata la finestra di dialogo Aggiungi entità.

  3. Nel campo Nuove entità, inserisci l'ID account di servizio che copiato in precedenza.

  4. Fai clic sul campo Seleziona un ruolo e poi digita Cloud Speech Client in Filtro.

  5. Fai clic su Aggiungi un altro ruolo.

  6. Nel campo Seleziona un ruolo, seleziona Cloud Storage e poi Visualizzatore oggetti Storage.

  7. Fai clic su Salva.

gcloud

Utilizza la Comando gcloud projects add-iam-policy-binding:

gcloud projects add-iam-policy-binding 'PROJECT_NUMBER' --member='serviceAccount:MEMBER' --role='roles/speech.client' --condition=None
gcloud projects add-iam-policy-binding 'PROJECT_NUMBER' --member='serviceAccount:MEMBER' --role='roles/storage.objectViewer' --condition=None

Sostituisci quanto segue:

  • PROJECT_NUMBER: il numero del progetto.
  • MEMBER: l'ID dell'account di servizio che copiato in precedenza.

La mancata concessione dell'autorizzazione genera un errore Permission denied.

Crea un set di dati

Crea un set di dati per contenere il modello e la tabella degli oggetti.

Crea una tabella di oggetti

Crea una tabella di oggetti su un insieme di file audio in Cloud Storage. I file audio nella tabella degli oggetti devono essere di tipo supportato.

Il bucket Cloud Storage utilizzato dalla tabella degli oggetti deve essere nel percorso nello stesso progetto in cui prevedi di creare il modello e chiamare Funzione ML.TRANSCRIBE. Se vuoi chiamare il Funzione ML.TRANSCRIBE in un progetto diverso da quello che contiene il bucket Cloud Storage utilizzato dalla tabella degli oggetti, devi concedere il ruolo Amministratore Storage a livello di bucket all'account di servizio [email protected].

crea un modello

Crea un modello remoto con REMOTE_SERVICE_TYPE di CLOUD_AI_SPEECH_TO_TEXT_V2:

CREATE OR REPLACE MODEL
`PROJECT_ID.DATASET_ID.MODEL_NAME`
REMOTE WITH CONNECTION `PROJECT_ID.REGION.CONNECTION_ID`
OPTIONS (
  REMOTE_SERVICE_TYPE = 'CLOUD_AI_SPEECH_TO_TEXT_V2',
  SPEECH_RECOGNIZER = 'projects/PROJECT_NUMBER/locations/LOCATION/recognizers/RECOGNIZER_ID'
);

Sostituisci quanto segue:

  • PROJECT_ID: il tuo ID progetto.
  • DATASET_ID: l'ID del set di dati che deve contenere il modello.
  • MODEL_NAME: il nome del modello.
  • REGION: la regione utilizzata dalla connessione.
  • CONNECTION_ID: l'ID connessione per ad esempio myconnection.

    Quando visualizzi i dettagli della connessione nella console Google Cloud, l'ID connessione è il valore riportato nell'ultima sezione ID connessione completo mostrato in ID connessione, ad esempio projects/myproject/locations/connection_location/connections/myconnection.

  • PROJECT_NUMBER: il numero del progetto che contiene il riconoscimento vocale. Puoi trovare questo valore nella Scheda Informazioni sul progetto nella pagina Dashboard della console Google Cloud.
  • LOCATION: la posizione utilizzata dal riconoscimento vocale. Puoi trovare questo valore nel campo Località della pagina Elenca i riconoscitori della console Google Cloud.
  • RECOGNIZER_ID: l'ID del riconoscitore vocale. Puoi trovare questo valore nel campo ID della pagina Elenca i riconoscitori della console Google Cloud.

    Questa opzione non è obbligatoria. Se non specifichi un valore, viene utilizzato un riconoscitore predefinito. In questo caso, devi specificare un valore per il parametro recognition_config della funzione ML.TRANSCRIBE per fornire una configurazione per il riconoscitore predefinito.

    Puoi usare soltanto chirp modello di trascrizione nel valore recognition_config che fornisci.

Trascrivere file audio

Trascrivere i file audio con la funzione ML.TRANSCRIBE:

SELECT *
FROM ML.TRANSCRIBE(
  MODEL `PROJECT_ID.DATASET_ID.MODEL_NAME`,
  TABLE `PROJECT_ID.DATASET_ID.OBJECT_TABLE_NAME`,
  RECOGNITION_CONFIG => ( JSON 'recognition_config')
);

Sostituisci quanto segue:

  • PROJECT_ID: il tuo ID progetto.
  • DATASET_ID: l'ID del set di dati che contiene il modello.
  • MODEL_NAME: il nome del modello.
  • OBJECT_TABLE_NAME: il nome della tabella dell'oggetto che contiene gli URI dei file audio da elaborare.
  • recognition_config: un RecognitionConfig risorsa in formato JSON.

    Se è stato specificato un riconoscimento per il modello remoto utilizzando SPEECH_RECOGNIZER, non puoi specificare un valore recognition_config.

    Se non è stato specificato alcun riconoscimento per il modello remoto utilizzando SPEECH_RECOGNIZER, devi specificare un valore recognition_config. Questo valore viene utilizzato per fornire una configurazione per il riconoscimento predefinito.

    Puoi usare soltanto chirp modello di trascrizione nel valore recognition_config che fornisci.

Esempi

Esempio 1

L'esempio seguente trascrive i file audio rappresentati dalla tabella audio senza sostituire la configurazione predefinita del riconoscitore:

SELECT *
FROM ML.TRANSCRIBE(
  MODEL `myproject.mydataset.transcribe_model`,
  TABLE `myproject.mydataset.audio`
);

L'esempio seguente trascrive i file audio rappresentati dalla tabella audio e fornisce una configurazione per lo strumento di riconoscimento predefinito:

SELECT *
FROM ML.TRANSCRIBE(
  MODEL `myproject.mydataset.transcribe_model`,
  TABLE `myproject.mydataset.audio`,
  recognition_config => ( JSON '{"language_codes": ["en-US" ],"model": "chirp","auto_decoding_config": {}}')
);

Passaggi successivi