ChatGPT Hallucinated, It’s No Joke: The Latest Troubled News…

Artificiell intelligens – TheMagazinetech

När du använder AI måste du ta hänsyn till hallucinationer, de liknar hallucinationer som upplevs av människor men fungerar på matematiska mönster

Artificiell intelligens får mer och mer utrymme i vårt dagliga liv. Han förklarades ofelbar och överdrivet smart, faktiskt, efter de första kommentarerna från datorteknikerna som arbetade med bygget ChatGPT på OpenAIÅsikterna har förändrats.

Artificiell intelligens har inget samvete och ”tränas” av oändliga matematiska scheman, och träningsmomentet är väldigt viktigt eftersom det är genom det som intelligensen kan skaffa sig färdigheter, eller tvärtom bli ”dummare” genom att förvirra sig själv. När AI blir förvirrad i ett ämne kan skadorna i verkliga livet bli enorma eftersom människor använder intelligens för att få hjälp även på jobbet.

Dessa fel kallas ”hallucinationer” och kan skapa förändrade verkligheter som användarna uppfattar som sanna. som i sin tur använder det för att konstruera nya verkligheter. Vi inser felet först senare, när det ibland är för sent. Kort sagt, artificiell intelligens går inte att lita helt på, varför det än så länge är omöjligt att tro att den helt kommer att ersätta mänskligt arbete. Men även för deras användning som assistenter förtjänar de uppmärksamhet.

AI-hallucinationer, vad de är och varför de är farliga

Precis som en person kan lida av ett kognitivt underskott genom att inte ha ett mått på vad som är verkligt, Även AI-genererade system som ChatGPT lider av hallucinationer som vilseleder dem. Att komplicera saken är svårigheten att ta itu med dessa misstag.

Se även  Italienska börsen, kommenterar dagens session (21 oktober 2022)

Specifikt, med hallucinationer menar vi en begreppsförvrängning, det är underförstått att AI inte har någon kunskap om fakta, och de skriver efter statistiska modeller, i den meningen att de är baserade på matematiska scheman men inte på medveten medvetenhet, vilket är en ganska mänsklig egenskap. .

Artificiell intelligens, gränser och hallucinationer – TheMagazinetech

Artificiell intelligens är inte så exakt som en gång trodde: deras data kan vara helt fel

Istället för att ge inga svar skapar AI-system parallella inlärningsalgoritmer som grovt, om inte helt, kan bearbeta informationen. detta Det leder till uppkomsten av ofullständiga eller påhittade svar omedelbart för att svara på begäran. Så AI:n tränas innan den sätts i fält, men ibland kan fel genereras under träning, så till exempel, i vissa sammanhang, kan AI:n missta en klocka för ett armband. Exempel som kan tyckas av ringa intresse men som faktiskt omsätts i vårt dagliga liv kan leda till olika problem.

När en AI tränas på mycket specifik data (overfitting) blir den mindre exakt i situationer den inte känner till. Men tvärtom, om den tränas med mycket allmän data (övergeneralisering), tenderar den att skapa luddiga kopplingar mellan sammanhang som med största sannolikhet inte existerar. Alla dessa förvrängningar identifieras som hallucinationer. Ett exempel är fallet med en advokat från New York som använde data från chattförslag som visade sig vara meningar som aldrig existerade. Allt detta gör inget annat än att skapa stora tvivel om effektiviteten av att använda mänsklig intelligens för att ersätta mänskligt arbete.

Se även  Kinesiska teknikaktier faller till nya bottennivåer i kampanjen ledd av Alibaba

Lämna ett svar

Din e-postadress kommer inte publiceras. Obligatoriska fält är märkta *