[ Zavřít ] 


 

RSS Kanál

 

OpenAI a Anthropic budou sdílet své modely AI ještě před zveřejněním s vládou USA

OpenAI a Anthropic, dva přední vývojáři genAI, oznámili, že budou sdílet své nové modely s americkou vládou pro účely bezpečnostního testování ještě před jejich veřejným uvedením. Dohoda byla uzavřena s US AI Safety Institute (Americkým institutem pro bezpečnost AI) , který je součástí federální agentury NIST (Národního institutu pro standardy a technologie).

 

OpenAI a Anthropic budou sdílet své modely AI ještě před zveřejněním s vládou USA (Zdroj: OpenAI)

Vlády po celém světě tlačí na zavedení opatření, která by umožnila hodnotit rizika spojená s novými výkonnými algoritmy AI. Dohody mezi giganty AI a vládami jsou klíčovým krokem nejen v rámci odpovědného vývoje AI, ale také v rámci národní bezpečnosti. Stejně tak vidí i Elizabeth Kelly, ředitelka US AI Safety InstituteBezpečnost je klíčová pro podporu průlomových technologických inovací. Tyto dohody jsou jen začátek, ale jsou důležitým milníkem v naší práci na odpovědném řízení budoucnosti AI.

OpenAI a Anthropic podepsaly memorandum o porozumění, které umožňuje formální spolupráci s US AI Safety Institute. Tato spolupráce zahrnuje nejen přístup k modelům před jejich veřejným uvedením, ale také společný výzkum zaměřený na hodnocení bezpečnosti modelů a metody pro zmírnění rizik. Jack Clark, spoluzakladatel Anthropic, dodává: Bezpečná a důvěryhodná AI je zásadní pro pozitivní dopad této technologie. Naše spolupráce s US AI Safety Institute využívá jejich široké odborné znalosti k důkladnému testování našich modelů před jejich širokým nasazením.

Strategický ředitel OpenAI Jason Kwon zdůrazňuje význam této spolupráce: Věříme, že institut má klíčovou roli při definování vedoucí pozice USA v odpovědném vývoji umělé inteligence a doufáme, že naše spolupráce nabídne rámec, na kterém může zbytek světa stavět.

Sdílení modelů AI s vládou před jejich zveřejněním je klíčové pro zachování národní bezpečnosti USA. Umožňuje to vládním agenturám provádět důkladné bezpečnostní testy a identifikovat potenciální rizika, která by mohla být zneužita nepřátelskými aktéry. Tímto způsobem mohou být zavedeny potřebné bezpečnostní opatření ještě předtím, než se technologie dostane do rukou široké veřejnosti.

US AI Safety Institute bude také spolupracovat se svými partnery v UK AI Safety Institute, aby poskytl zpětnou vazbu na potenciální zlepšení bezpečnosti modelů. USA a Velká Británie již dříve spolupracovaly na testování bezpečnosti AI modelů. Tato dohoda představuje významný krok směrem k zajištění bezpečnosti a odpovědného vývoje AI, což je klíčové pro budoucí technologické inovace a jejich pozitivní dopad na společnost.

Zdroje

 

 

 

 

 

Mistral demokratizuje pokročilé funkce AI

Francouzský vývojář AI Mistral AI přichází s multimodálním modelem Pixtral Large, aktualizuje vlajkový jazykový model Mistral Large na verzi 24.11 a ve zdarma přístupné betě nabízí pokročilé funkce, jako jsou Web Search, Canvas a...

SearchGPT kombinuje důvěryhodnost, kontext a přístupnost

OpenAI představilo SearchGPT, novou funkci v rámci ChatGPT, která kombinuje sílu umělé inteligence a schopnosti přímého vyhledávání na internetu. Jde o krok směrem k plně integrovaným systémům, které mohou na základě uživatelských...

Claude 3.5 Sonnet a Haiku: nová kapitola ve vývoji LLM

Neustálý vývoj jazykových modelů přináší nové možnosti, jakým způsobem umělá inteligence ovlivňuje nejen interakci mezi uživateli a počítači, ale práci s daty jako takovou. Společnost Anthropic nyní představuje 2  nové modely –...

Spotify přidává videa

Spotify stále rozšiřuje svou nabídku funkcí, aby uživatelům poskytlo co nejkomplexnější hudební zážitek. Nově se snaží zintenzivnit posluchačský zážitek přidáním videí, díky čemuž mohou uživatelé sledovat videoklipy...


 
© 2005-2024 PS Media s.r.o. - digital world
 

reklama