Глава отдела доверия и безопасности OpenAI ушёл в отставку

Компания OpenAI понесла серьёзные кадровые потери. Дэйв Уилнер (Dave Willner), ветеран отрасли, возглавлявший отдел по вопросам доверия и безопасности ИИ последние полтора года, объявил о своём увольнении и переходе на должность консультанта. Он планирует проводить больше времени с семьёй. Его уход происходит в критическое время для ИИ, когда весь мир волнуют вопросы о регулировании ИИ и минимизации возможных вредных последствий его внедрения.

 Источник изображения: OpenAI

Источник изображения: OpenAI

Буквально сегодня президент OpenAI Грег Брокман (Greg Brockman) должен появиться в Белом доме вместе с руководителями из Anthropic, Google, Inflection, Microsoft, Meta* и Amazon, чтобы подтвердить добровольные обязательства по достижению общих целей безопасности и прозрачности при использовании ИИ в преддверии находящегося в разработке закона.

Уилнер в сообщении о своём уходе пишет, что требования к его работе в OpenAI перешли в «фазу высокой интенсивности» после запуска ChatGPT. Он и его жена взяли на себя обязательство всегда ставить семью на первое место, но «в течение нескольких месяцев после запуска ChatGPT мне становилось все труднее выполнять свою часть сделки».

Уилнер занимал свой пост в OpenAI последние полтора года, до этого он руководил командами доверия и безопасности в Facebook* и Airbnb. В Facebook* он был одним из первых сотрудников, который помог сформировать базовый подход компании к стандартам сообщества, ставший в дальнейшем фундаментом гражданской позиции компании.

Учитывая влияние Facebook* на глобальное развитие социальных сетей, выработка компанией концепций по модерированию контента оказалась системообразуюшей для всего интернета и общества в целом. Начальный этап развития социальной сети характеризовался очень откровенной позицией в отношении свободы слова и отказом Facebook* блокировать спорные группы и удалять спорные сообщения. В то время общество раскололось — одни ратовали за строгую модерацию, другие считали это цензурой и покушением на свободу слова.

Уилнер был в последнем лагере, полагая, что «язык ненависти» — это не то же самое, что «прямой вред», и поэтому его нельзя модерировать одинаково. Теперь многие считают, что это была довольно недальновидная и даже наивная позиция. Но Уилнер не отказался от своего мнения — в 2019 году, уже не работая в социальной сети, он выступал против исключений для политиков и общественных деятелей в вопросах модерации контента.

Необходимость контроля и регулирования в сфере ИИ ещё более актуальна для новой волны технологий на базе ИИ, нежели модерирование социальных сетей. К примеру, в OpenAI Уилнер занимался вопросами безопасности и потенциальных злоупотреблений при использовании генератора изображений Dall-E для таких вещей, как создание генеративной детской порнографии на основе ИИ.

OpenAI и всей бурно растущей отрасли генеративного ИИ требуется грамотно продуманная политика использования и требуется, как говорится, ещё вчера. Эксперты предрекают, что в течение года отрасль достигнет очень проблемного состояния. Уже сейчас использование ИИ приводит к массовым увольнениям, проблемам с авторскими правами, ошибкам в судебных процессах и другим крупным неприятностям. И уход из отрасли таких людей, как Уилнер, только усугубляет ситуацию.

* Внесена в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности».

Источник: 3dnews.ru

Ответить

Ваш адрес email не будет опубликован. Обязательные поля помечены *