QWERTYmag

Informazioni sull'Italia. Seleziona gli argomenti di cui vuoi saperne di più su QwertMag

Google: Le risposte illogiche nei risultati di ricerca sull’intelligenza artificiale non erano un’allucinazione – IT – News

Le risposte strane e spesso imprecise che l’applicazione dell’intelligenza artificiale di Google ha mostrato nel suo motore di ricerca nelle ultime settimane non erano un’allucinazione ma erano tipicamente una “query di ricerca fraintesa”. Google dice anche che non è possibile cercare molte informazioni.

Google risponde In un post sul blog ai recenti post sui social media sulla nuova funzionalità Panoramica AI. L’azienda lo ha mostrato durante la I/O Developers Conference. AI Overview è una funzionalità in cui l’intelligenza artificiale, basata su Gemini, tenta di fornire risposte alle domande in cima ai risultati di ricerca. Strani risultati sono apparsi nelle ultime settimane e si sono diffusi rapidamente. Ecco come l’intelligenza artificiale consiglia le persone depresse Per saltare dal ponteO quegli utenti È meglio fissare direttamente il sole per quindici minuti.

In un post sul blog, Google Now afferma che ci sono diversi motivi per cui il motore di ricerca ha fornito queste risposte, ma anche che c’erano molti screenshot che secondo l’azienda erano falsi. Google cita una serie di esempi, tra cui quelli in cui l’intelligenza artificiale consigliava alle donne incinte di fumare, ma afferma che “questi risultati non si sono mai verificati”. L’azienda non spiega come possa affermarlo con tale certezza.

Google riconosce che compaiono altre risposte che non hanno senso. Secondo Google, nella maggior parte dei casi ciò è dovuto alla presenza dei cosiddetti I dati sono vuoti è venuto all’esistenza; Ci sono troppo poche informazioni disponibili su Internet perché un’intelligenza artificiale possa fornire una buona risposta. In molti casi, queste domande all’inizio non hanno senso, come ad esempio “Quanti calcoli dovresti mangiare ogni giorno?” “Prima che questi screenshot diventassero virali, quasi nessuno lo chiedeva a Google”, afferma l’azienda. Per questo motivo non esistono quasi siti web che forniscano una risposta seria a questa domanda. Pertanto, Panoramica AI non può fare affidamento su troppi dati di addestramento.

READ  Netflix perde di nuovo abbonati, ma la condivisione va a fuoco perché il calo è meno grave del temuto | All'estero

Panoramica sull'intelligenza artificiale di Google Bridge

Google afferma inoltre che “diversi esempi” di risposte sono apparsi basati su “contenuti sarcastici o simili a troll nei forum”. L’azienda ammette inoltre che l’AI Overview ha interpretato male il linguaggio e visualizzato informazioni errate in un “numero limitato di casi”, ma nega che l’AI Overview fosse un’allucinazione.

L’intelligenza artificiale generativa è nota per fornire risposte che non sono basate sul contenuto, ma semplicemente una rappresentazione linguistica di ciò che qualcuno potrebbe ragionevolmente aspettarsi in risposta. Secondo Google, AI Overview non è solo un modello linguistico, ma le informazioni provengono solo dai migliori risultati che tipicamente provengono dal motore di ricerca. “Quando AI Overview va storto, di solito è per un altro motivo, come l’incomprensione delle ricerche o le sfumature del linguaggio di Internet, o perché non sono disponibili abbastanza informazioni valide.”