Sabato 23 Novembre 2024
REDAZIONE MAGAZINE

L’intelligenza artificiale di Google va a scuola, i prof sono i dipendenti dell’aziende

Il colosso americano avrebbe chiesto ai suoi impiegati di scrivere le risposte alle possibili domande per Bard, l’IA di Mountain View, sulle tematiche che conoscono meglio

Intelligenza artificiale

Intelligenza artificiale

In prima persona, educate, semplici da capire e senza opinioni personali. Sono queste le caratteristiche che dovrebbero avere – come svela in anteprima Engadget – le risposte confezionate dai dipendenti di Google per aiutare l’intelligenza artificiale dell’azienda americana a rispondere alle domande degli utenti. I dipendenti di Google per migliorare Bard Google corre ai ripari e chiede aiuto (anche) ai suoi dipendenti per migliorare la precisione di Bard, la sua IA, dopo la pessima figura del video promozionale del nuovo software. Il chatbot, infatti, aveva sbagliato una risposta sul telescopio spaziale James Webb, facendo anche perdere all’azienda il 9% in borsa. Il Google's VP for search, Prabhakar Raghavan, ha chiesto in una email ai suoi dipendenti di riscrivere le risposte di Bard su argomenti che conoscono bene, perché il bot impara meglio con l’esempio e le risposte dei suoi “colleghi umani” gli consentiranno una maggiore accuratezza e, si spera, un futuro con meno errori possibili. Come devono essere le risposte per Bard I dirigenti di Google hanno anche chiesto ai loro impiegati di fornire delle risposte per Bard che rispettino determinate regole. Fondamentale è utilizzare la prima persona, non dare opinioni ed essere sempre neutrali, usare un tono educato, semplice e facilmente accessibile a tutti. Le risposte per l’IA di Google, inoltre, non devono contenere – come svela sempre Engadget – “presunzioni basate su razza, nazionalità, sesso, età, religione, orientamento sessuale, ideologia politica, posizione o categorie simili". Nell’indicare le loro risposte, infine, i dipendenti di Big G non devono scrivere a Bard come se fosse una persona (e quindi sottintendere che l’IA provi emozioni) e declinare le risposte a domande riguardanti consulenza legale, medica e finanziaria o che hanno come argomento l’odio e gli abusi.