Sutskever egy interjúban kifejtette: az MI-kutatásban lezárult az a korszak, amikor a nagyobb nyelvi modellek és az adatmennyiség növelése automatikusan fejlődést eredményezett. Szerinte a “skálázás kiszívta a levegőt a szobából”, mert mindenki ugyanazokat a módszereket használta, de az adatok végesek. Most az alapkutatás és a paradigmaváltás került előtérbe.
Kiemelte, hogy az MI-modellek egyik fő gyengesége a “jaggedness”: egyes teszteken kiválóan teljesítenek, de alapvető problémákat nem tudnak megbízhatóan megoldani. Szerinte az emberi tanulás hatékonysága főként az érzelmek által modulált értékfüggvényeknek köszönhető, amelyek az evolúció során alakultak ki.
Sutskever szerint a jövő szuperintelligenciája nem minden tudás birtokosa lesz, hanem egy kiemelkedően tanulékony “15 éves diákhoz” hasonlítható, aki bármilyen szakmát megtanulhat. Az AGI (általános mesterséges intelligencia) fogalmát is árnyalni kell: a cél szerinte nem egy mindentudó rendszer, hanem egy kiválóan tanulni képes gép.
Arra a kérdésre, miként lehetne az MI tanulási hatékonyságát közelíteni az emberéhez, Sutskever nem árult el részleteket, mondván: “Sajnos olyan világban élünk, ahol nem minden gépi tanulási ötletet lehet szabadon megvitatni.” Úgy véli, a nyílt tudományos eszmecsere korlátozottá vált, főként a növekvő piaci verseny és biztonsági aggályok miatt.
Az SSI 3 milliárd dolláros kezdőtőkével indult, de nem siet termékek piacra dobásával. Ehelyett kutatásra koncentrál, mivel nincs rá kényszerítve, hogy üzleti okokból gyorsan publikáljon vagy terméket fejlesszen. A társadalom számára csak akkor teszik elérhetővé az MI-t, ha az már biztonságos. Sutskever szerint fontos a fokozatosság is, hogy a társadalom megértse a technológia erejét és legyen ideje alkalmazkodni.
Sutskever úgy véli, az MI-laborok közötti együttműködés elkerülhetetlen, mivel az egyre erősebb rendszerek komoly biztonsági kihívásokat hoznak. Az MI fejlesztésének végső célja szerinte az, hogy az érző lények – köztük a gépi intelligenciák – érdekeit védje.