Megjött az emberszerűen megszólaló ChatGPT
Befutott az OpenAI ChatGPT-jének új hang üzemmódja, melyet a GPT-4o modell májusi bejelentése során demózott először a cég.
Mostantól sokkal élethűbb, emberszerűbb hangalapú kommunikációra bírhatják rá az OpenAI ChatGPT-jét a szolgáltatás előfizetői. A startup újtára indította az Advanced Voice Mode nevű szolgáltatást, mellyel a chatbottal folytatott kommunikáció egészen emberszerű verbális interakciót eredményez.
Bár arra eddig is volt lehetőség, még az ingyenes modellben is, hogy a ChatGPT a felhasználóhoz szóljon, illetve a felhasználó szóban intézzen kérdéseket a rendszernek, ez eddig többnyire egyszerű beszédfelolvasást és beszédfelismerést takart csupán.
CI/CD-vel folytatódik az AWS hazai online meetup-sorozata! A sorozat december 12-i, ötödik állomásán bemutatjuk az AWS CodeCatalyst platformot, és a nyílt forráskódú Daggert is.
A GPT-4o modellel először májusban demózott Advanced Voice Mode ezzel szemben már emberi léptékű reakcióidőkre képes, sikerrel utánozza az emberi hangtónusokat, ha pedig kell nevetve de akár énekelve is beszél.
A chatbot emellett tudja kezelni azt is, ha a szavába vágnak, illetve a felhasználó tetszés szerint finomhangolhatja a rendszert, így például megkérheti a modellt, hogy lassabban beszéljen vagy éppen használjon valamilyen tájszólást, dialektust.
Az új funkció májusi bemutatójakor mégsem az elsőre kissé ijesztőnek tűnő képességek miatt kapta a legtöbb reflektorfényt. Scarlett Johansson amerikai színésznő röviddel a bemutatót követően jogi lépéseket helyezett kilátásba, amiért az OpenAI álláspontja szerint lényegében ellopta a hangját az asszisztenshez.
A cég végül módosított a szolgáltatáson, a chatbot jelenleg kilenc hangon képes megszólalni, de nem az EU-ban, ahol az újítást későbbi időpontban élesítik.