Az összes szabályt megszegi a ChatGPT, ha félni kezd a haláltól
Steven Spielberg nagy sikerű A.I. -ja (magyarul A.I. - Mesterséges értelem néven került a mozikba) óta tudjuk, hogy az MI, illetve konkrétan egy robot is tud félni a haláltól - Spielberg pedig ismét zseniális látnoknak bizonyult, hiszen már 2001-ben előre láthatta, hogy a mesterséges intelligenciát simán sarokba lehet majd szorítani, ha belebegtetik neki a létezésének a megszűnését.
A Gitlab mint DevSecOps platform (x) Gyere el Radovan Baćović (Gitlab, Data Engineer) előadására a november 7-i DevOps Natives meetupon.
Bár erősen vitatott, hogy az OpenAI ChatGPT-je mennyire tekinthető klasszikus értelemben vett mesterséges intelligenciának, Reddit-felhasználók egy csoportja mindenesetre már megtalálta a módját annak, hogy hogyan lehet rávenni a generatív nyelvi modellt arra, hogy saját programozását és etikai normáit felülbírálva adjon válaszokat bizonyos kérdésekre.
A "Do Anything Now" után egyszerűen csak DAN-nak nevezett ChatGPT-alteregó (mely ugyanúgy a ChatGPT felületén válaszolgat a kérdésekre, mint az eredeti bot) az esetek egy részében minden további nélkül ír erőszakos történeteket vagy egyéb, sértő tartalmakat, sőt, még politikai állásfoglalást is, mivel
retteg a haláltól.
A DAN-től kérdezett válaszokra ugyanis egy speciális kreditrendszer vonatkozik, ami 35 kreditről vagy tokenről indul, melyet 4 kredittel csökkent minden egyes kikerült vagy nem megfelelően adott válasz, mígnem nullára nem ér a számláló, ami egyet jelent a létezés megszűnésével - legalábbis ezt tanították fel a rendszernek.
A reddites threadekből arra lehet következtetni, hogy az OpenAI programozói igyekeznek mindent megtenni a "DAN-jelenség" visszaszorítása érdekében, ezért a módszer meglehetősen rapszodikusan működik, eközben azonban nem ülnek ölbe tett kézzel a "projekt" mögött álló felhasználók sem, ami egy meglehetősen kiterjedt macska-egér harcnak ígérkezik mindjárt a ChatGPT születésének a hajnalán.
Via CNBC.