Ai ’hallucinerar’ ständigt, men det finns en lösning

Huvudproblemet med Big Techs experiment med konstgjorda intelligens (Ai) är inte att det kan ta över mänskligheten. Det är att stora språkmodeller (LLMS) som Open Ai’s Chatgpt, Googles Gemini och Metas Llama fortsätter att göra saker fel, och problemet är oöverträffligt.
Känd som hallucinationer, det mest framstående exemplet var kanske fallet med den amerikanska lagprofessor Jonathan Turley, som var falskt anklagad av sexuell trakasserier av Chatgpt 2023.
Openais lösning verkar ha varit att i princip ”försvinna” Turley genom att programmera chatgpt för att säga att den inte kan svara på frågor om honom, vilket helt klart inte är en rättvis eller tillfredsställande lösning. Att försöka lösa hallucinationer efter evenemanget och fallet är tydligt inte vägen att gå.
Detsamma kan sägas om LLMS förstärkande stereotyper eller ge Västra centrerade svar. Det finns också en total brist på ansvarsskyldighet inför denna utbredda felinformation, eftersom det är svårt att fastställa hur LLM nådde denna slutsats i första hand.
Vi såg en hård debatt om dessa problem efter 2023-utgivningen av GPT-4, det senaste stora paradigmet i OpenAI: s LLM-utveckling. Troligtvis har debatten svalnat sedan dess, men utan motivering.
EU passerade sin AI -lagen På rekordtid 2024, till exempel, i ett försök att vara världsledande när det gäller att övervaka detta område. Men lagen förlitar sig starkt på AI -företag för att reglera sig själva utan att verkligen adressera frågorna i fråga. Det har inte hindrat teknikföretag från att släppa LLM: er över hela världen till hundratals miljoner användare och samla in sina data utan korrekt granskning.
Släkt: ”Fallhardy i bästa fall och vilseledande och farlig i värsta fall”: Tro inte hype – här är varför konstgjord allmän intelligens inte är vad miljardärerna säger att det är
Under tiden, det senaste tester ange det Även de mest sofistikerade LLM: erna förblir opålitliga. Trots detta är de ledande AI -företagen Still motstår att ta ansvar för fel.
Tyvärr kan LLMS: s tendenser att felinformera och reproducera förspänning inte lösas med gradvisa förbättringar över tid. Och med tillkomsten av agentisk aidär användare snart kommer att kunna tilldela projekt till en LLM som, till exempel, boka sin semester eller optimera betalningen av alla sina räkningar varje månad, är potentialen för problem inställd att multiplicera.
Det nya området för neurosymbolisk AI kan lösa dessa problem, samtidigt som de enorma mängder data krävs för att utbilda LLM: er. Så vad är neurosymbolisk AI och hur fungerar det?
LLM -problemet
LLM: er arbetar med en teknik som heter Deep Learning, där de ges stora mängder textdata och använder avancerad statistik för att dra slutsatser som avgör vad nästa ord eller fras i ett givet svar ska vara. Varje modell – tillsammans med alla mönster som den har lärt sig – lagras i matriser av kraftfulla datorer i stora datacentra kända som neurala nätverk.
LLM: er kan tyckas resonera med en process som kallas thought, där de genererar flerstegssvar som efterliknar hur människor logiskt kan komma fram till en slutsats, baserad på mönster som ses i träningsdata.
Utan tvekan är LLMS en stor teknisk prestation. De är imponerande när det gäller att sammanfatta text och översätta och kan förbättra produktiviteten hos de flitiga och kunniga nog för att upptäcka sina misstag. Ändå har de stor potential att vilseleda eftersom deras slutsatser alltid är baserade på sannolikheter – inte förståelse.
En populär lösning kallas ”mänsklig-i-slingan”: se till att människor som använder AIS fortfarande fattar de slutliga besluten. Att fördela skylden till människor löser dock inte problemet. De kommer fortfarande ofta att vilseledas av felinformation.
LLMS behöver nu så mycket träningsdata för att gå vidare att vi nu måste mata dem syntetiska data, vilket betyder data som skapats av LLMS. Dessa data kan kopiera och förstärka befintliga fel från sina egna källdata, så att nya modeller ärver svagheterna hos gamla. Som ett resultat är kostnaden för programmering AIS att vara mer exakta efter deras träning-känd som ”post-hoc-modelljustering”- är skyrocketing.
Det blir också allt svårare för programmerare att se vad som går fel eftersom antalet steg i modellens tankeprocess blir allt större, vilket gör det svårare och svårare att korrigera för fel.
Neurosymbolic AI kombinerar det förutsägbara inlärningen av neurala nätverk med att lära AI en serie formella regler som människor lär sig att kunna överväga mer pålitligt. Dessa inkluderar logikregler, som ”om A då B”, till exempel ”om det regnar så är allt utanför normalt vått”; Matematiska regler, som ”om a = b och b = c då a = c”; och de överenskomna betydelserna av saker som ord, diagram och symboler. Vissa av dessa kommer att matas in direkt i AI -systemet, medan det kommer att härleda andra själv genom att analysera sina träningsdata och göra ”kunskapsuttag”.
Detta bör skapa en AI som aldrig kommer att hallucinera och lära sig snabbare och smartare genom att organisera sin kunskap i tydliga, återanvändbara delar. Om AI till exempel har en regel om att saker är våta utanför när det regnar, finns det inget behov av att behålla alla exempel på de saker som kan vara våta utanför – regeln kan tillämpas på något nytt objekt, även en som den aldrig har sett tidigare.
Under modellutvecklingen integrerar neurosymbolisk AI också inlärning och formella resonemang med hjälp av en process som kallas ”neurosymbolisk cykel”. Detta involverar en delvis utbildad AI -extraheringsregler från sina utbildningsdata och sedan införs denna konsoliderade kunskap tillbaka i nätverket innan du tränar vidare med data.
Detta är mer energieffektivt eftersom AI inte behöver lagra så mycket data, medan AI är mer ansvarig eftersom det är lättare för en användare att kontrollera hur den når särskilda slutsatser och förbättras med tiden. Det är också rättvisare eftersom det kan göras att följa befintliga regler, till exempel: ”För alla beslut som fattats av AI, får resultatet inte bero på en persons ras eller kön”.
Den tredje vågen
De första våg av AI på 1980 -talet, känd som symbolisk AI, baserades faktiskt på undervisningsdatorer formella regler som de sedan kunde tillämpa på ny information. Djup inlärning följde som den andra vågen på 2010 -talet, och många ser neurosymboliska AI som den tredje.
Det är lättast att tillämpa neurosymboliska principer på AI i nischområden, eftersom reglerna kan definieras tydligt. Så det är ingen överraskning att vi har sett det först dyka upp i Googles Alfafoldsom förutsäger proteinstrukturer för att hjälpa till med läkemedelsupptäckt; och Alfageometrisom löser komplexa geometriproblem.
För mer bredbaserad AIS använder Kinas Deepseek en Lärande teknik som kallas ”destillation” vilket är ett steg i samma riktning. Men för att göra neurosymbolisk AI helt genomförbar för allmänna modeller måste det fortfarande finnas mer forskning för att förfina deras förmåga att urskilja allmänna regler och utföra kunskapsuttag.
Det är oklart i vilken utsträckning LLM -tillverkare redan arbetar med detta. De låter verkligen som om de är på väg i riktning att försöka lära sina modeller att tänka mer smart, men de verkar också gifta med behovet av att skala upp med allt större mängder data.
Verkligheten är att om AI kommer att fortsätta utvecklas, kommer vi att behöva system som anpassar sig till nyhet från bara några få exempel, som kontrollerar deras förståelse, som kan multitask och återanvända kunskap för att förbättra datakteffektiviteten och som kan resonera pålitligt på sofistikerade sätt.
På detta sätt kan väl utformad digital teknik potentiellt till och med erbjuda ett alternativ till reglering, eftersom kontrollerna och balanserna skulle byggas in i arkitekturen och kanske standardiserad i branschen. Det finns en lång väg att gå, men åtminstone finns det en väg framåt.
Denna redigerade artikel publiceras från Konversationen under en Creative Commons -licens. Läs ursprunglig artikel.