Společnost OpenAI, tvůrce ChatGPT, sestavuje tým, který má zabránit tomu, aby tzv. frontier AI modely (tedy takové, které mohou představovat riziko pro veřejnou bezpečnost) rozpoutaly jadernou válku či jiné katastrofy.
Nepředstavuje umělá inteligence novou bublinu pro investory?
„Jsme přesvědčeni, že frontier AI modely, které překonají schopnosti nejpokročilejších stávajících modelů, mají potenciál prospět celému lidstvu. Zároveň však představují stále závažnější rizika,“ uvedla společnost v příspěvku na blogu.
Tým nazvaný Preparedness, který povede Aleksander Madry, se bude snažit minimalizovat rizika, která tyto neustále se vyvíjející AI modely představují. Mezi takové „katastrofické“ scénáře patří například individualizovaný nátlak, kybernetická bezpečnost, chemické, biologické, radiologické a jaderné hrozby nebo autonomní replikace a adaptace.
Chcete dostávat do mailu týdenní přehled článků z Computerworldu? Objednejte si náš mailový servis a žádná důležitá informace vám neuteče. Objednat si lze také newsletter To hlavní, páteční souhrn nejdůležitějších článků ze všech našich serverů. Newslettery si můžete objednat na této stránce.
Nový tým má podle OpenAI propojit posuzování schopností, hodnocení a interní red teaming pro frontiers modely, od modelů, které můžeme očekávat v blízké budoucnosti, až po ty se schopnostmi na úrovni obecné AI. Preparedness tým bude také zodpovědný za přípravu pravidel pro rizikový vývoj (RDP).
„Tato pravidla budou podrobně popisovat náš přístup k vývoji přísného hodnocení a monitorování schopností frontiers modelů, vytváření spektra ochranných opatření a vytváření řídicí struktury pro odpovědnost a dohled nad celým tímto procesem vývoje,“ uvedla společnost a dodala, že RDP program má rovněž doplnit a rozšířit stávající činnost společnosti v oblasti snižování rizik.
OpenAI také hledá pro nový tým „výjimečné talenty z různých technických oborů“.
Výzva v oblasti připravenosti na umělou inteligenci
Společnost dále uvedla, že zahajuje výzvu AI Preparedness Challenge pro prevenci katastrofického zneužití umělé inteligence.
„Nabídneme 25 000 dolarů v API kreditech až deseti nejlepším příspěvkům, zveřejníme nové nápady a budeme hledat kandidáty pro Preparedness z řad nejlepších uchazečů o tuto výzvu,“ stojí v nabídce.
V červenci OpenAI otevřela novou divizi pro výzkum sladění, která se zaměřuje na vývoj tréninkových technik, jež by zabránily superinteligentní umělé inteligenci – umělé inteligenci, která by mohla přechytračit člověka a dostat se do nesouladu s lidskou etikou – způsobit vážné škody.
Přibližně ve stejné době se společnost připojila k dalším předním laboratořím AI a přijala dobrovolné závazky na podporu bezpečnosti, ochrany a důvěry v AI.
Ještě předtím v květnu podepsaly stovky vedoucích představitelů technologického průmyslu, akademiků a dalších osobností veřejného života otevřený dopis, v němž varovaly, že vývoj umělé inteligence by mohl vést k zániku lidstva, a uvedly, že kontrola této technologie by měla být hlavní globální prioritou.
Computerworld si můžete objednat i jako klasický časopis. Je jediným odborným měsíčníkem na českém a slovenském trhu zaměreným na profesionály v oblasti informačních a komunikačních technologií (ICT). Díky silnému zázemí přináší aktuální zpravodajství, analýzy, komentáře a přehledy nejnovejších technologií dříve a na vyšší odborné úrovni, než ostatní periodika na tuzemském trhu.
Obsah Computerworldu je určen odborníkům a manažerům z firem a institucí, kteří se podílejí na rozhodovacím procesu při nákupu ICT technologií. Jednotlivá čísla si můžete objednat i v digitální podobě.