ԱԲ

OpenAI-ը լուծարում է «Առաքելության համապատասխանեցման» թիմը՝ անվտանգության պատասխանատուների հեռանալուն զուգահեռ

OpenAI-ը ցրել է իր «Առաքելության համապատասխանեցման» թիմը՝ ղեկավար Ջոշ Աչիամին տեղափոխելով ֆուտուրիստի պաշտոնի։ Սա շարունակում է անվտանգության թիմերի վերակազմավորման շղթան։

Jess Lyovson
Jess Lyovson

administrator

10 փտվ, 2026 թ.HY
2 րոպե ընթերցում
Post 44

Hero image for: Post 44

Ինչ է տեղի ունեցել

OpenAI-ը լուծարել է «Առաքելության համապատասխանեցման» (Mission Alignment) թիմը։ Այն ստեղծվել էր 2024 թվականի վերջին՝ ապահովելու, որ արհեստական ընդհանուր բանականությունը (AGI) ծառայի մարդկության շահերին։ Ընկերությունը թիմի յոթ անդամներին վերանշանակել է այլ բաժիններում։

Թիմի նախկին ղեկավար Ջոշ Աչիամը (Josh Achiam) տեղափոխվել է նոր՝ Գլխավոր ֆուտուրիստի (Chief Futurist) պաշտոնին։ Նա աշխատելու է հետազոտողների հետ՝ ուսումնասիրելու AGI-ի երկարաժամկետ ազդեցությունը հասարակության վրա։

Այս վերակազմավորումը համընկնում է ընկերությունից այլ առանցքային դեմքերի հեռանալու հետ.

  • Ռայան Բայերմայստեր (Ryan Beiermeister)՝ արտադրանքի քաղաքականության գծով փոխնախագահը, հեռացվել է 2026-ի հունվարին։ Թեև OpenAI-ը պատճառաբանել է կադրային խնդիրները, հաղորդվում է, որ նա դեմ է եղել մեծահասակների համար նախատեսված բովանդակության ներդրմանը և անվտանգության ռիսկերին։
  • Զոի Հիցիգ (Zoë Hitzig)՝ հետազոտող, հրաժարական է տվել 2026-ի փետրվարին։ Նա հանդես է եկել հոդվածով՝ մտահոգություն հայտնելով OpenAI-ի գովազդային նոր ռազմավարության էթիկական կողմերի վերաբերյալ։

Ինչու է սա կարևոր

Այս փոփոխությունները ցույց են տալիս, թե ինչպես է փոխվում OpenAI-ի մոտեցումը անվտանգության և երկարաժամկետ պլանավորման նկատմամբ։ Լուծարելով հատուկ անվտանգության թիմերը և անդամներին ինտեգրելով արտադրանքի խմբերում՝ ընկերությունը պնդում է, թե անվտանգությունը դառնում է բոլորի գործը։ Սակայն քննադատները մտավախություն ունեն, որ սա թուլացնում է այն աշխատակիցների ազդեցությունը, որոնց բուն խնդիրը վտանգները կանխելն է։

Հեռացումները նաև ընդգծում են աճող ներքին լարվածությունը շահույթի և անվտանգության միջև։ Քանի որ OpenAI-ը եկամուտներն ավելացնելու համար դիտարկում է գովազդի և, հնարավոր է, մեծահասակների համար բովանդակության ներդնումը, էթիկական համապատասխանեցման վրա կենտրոնացած աշխատակիցները հեռանում են կամ տեղափոխվում։ Սա արտացոլում է ոլորտի ավելի լայն միտումը. ընկերությունները շտապում են նոր արտադրանք թողարկել, և անվտանգության թիմերը հաճախ առաջինն են ենթարկվում փոփոխությունների։

Նախապատմություն

  • «Առաքելության համապատասխանեցման» թիմ. Ստեղծվել է 2024-ի սեպտեմբերին, կենտրոնացած էր ապահովելու, որ AGI-ն արտացոլի մարդկային արժեքները և այդ նպատակները հաղորդակցի հանրությանը։
  • Լուծարումների շղթա. OpenAI-ը վերջերս ցրել է անվտանգությանը միտված նմանատիպ այլ խմբեր.
    • Գերհամապատասխանեցման (Superalignment) թիմ (Մայիս 2024). Թիմի ղեկավարներն էին Իլյա Սուցկևերը և Յան Լայկեն: Այն կենտրոնացած էր գերբանական AI-ի վերահսկման վրա։ Լուծարվեց երկու ղեկավարների հեռանալուց հետո։
    • AGI-ի պատրաստվածության (AGI Readiness) թիմ (Հոկտեմբեր 2024). Ղեկավարում էր Մայլս Բրանդեջը։ Թիմը խորհրդատվություն էր տալիս AGI-ին աշխարհի պատրաստ լինելու վերաբերյալ։ Լուծարվեց նրա հեռանալուց հետո։
  • Առևտրային շրջադարձ. Սկզբնապես որպես ոչ առևտրային կազմակերպություն հիմնադրված OpenAI-ը ագրեսիվորեն ընդլայնել է իր առևտրային գործունեությունը՝ վերջերս գովազդ ներդնելով ChatGPT-ում և վերակազմավորվելով՝ ավելի շատ ներդրումներ ներգրավելու համար։

Ինչը հայտնի չէ

  • Գլխավոր ֆուտուրիստի ազդեցությունը. Պարզ չէ՝ Ջոշ Աչիամի նոր պաշտոնը ենթադրո՞ւմ է արտադրանքի մշակումը կասեցնելու կամ փոխելու լիազորություն, թե՞ այն զուտ խորհրդատվական է։
  • Հեռացման պատճառը. Ռայան Բայերմայստերի հեռացման կոնկրետ մանրամասները վիճարկելի են։ OpenAI-ը վկայակոչում է գործընկերոջ նկատմամբ խտրականությունը, իսկ նա՝ անվտանգության հարցեր բարձրացնելու համար հետապնդումը։
  • Աշխատակիցների դերերը. Մենք չգիտենք, թե կոնկրետ ինչի վրա են այժմ աշխատում «Առաքելության համապատասխանեցման» թիմի վերանշանակված յոթ անդամները, և արդյոք նրանց անվտանգության մանդատները պահպանվել են։

Ինչ սպասել

  • Արտադրանքի փոփոխություններ. Օգտատերերը պետք է ուշադիր լինեն ChatGPT-ում գովազդների հայտնվելուն և «NSFW» (մեծահասակների համար) բովանդակության վերաբերյալ հնարավոր քաղաքականության թարմացումներին, ինչին դեմ էին անվտանգության աշխատակիցները։
  • Կարգավորողների ուշադրություն. Այս փոփոխությունները կարող են գրավել պետական մարմինների ուշադրությունը, ինչպիսիք են ԱՄՆ AI-ի անվտանգության ինստիտուտը կամ ԵՄ կարգավորողները, որոնք հետևում են, թե ինչպես են ընկերությունները կառավարում AI ռիսկերը։
  • Նոր հեռացումներ. Մարդիկ հետաքրքրված են՝ արդյոք անվտանգության ավելի շատ հետազոտողներ կլքե՞ն OpenAI-ը՝ տեղափոխվելով մրցակիցների մոտ (օրինակ՝ Anthropic), որն իրեն դիրքավորում է որպես անվտանգությունն առաջնահերթություն համարող այլընտրանք։

Վերջին թարմացումը՝ 18 փտվ, 2026 թ.

ԱԲ