В мире, где технологии развиваются с невероятной скоростью, вопросы безопасности искусственного интеллекта (ИИ) становятся все более актуальными. 4 июня группа бывших и нынешних сотрудников OpenAI опубликовала открытое письмо, которое вызвало широкий резонанс в научном сообществе и среди общественности. Об этом сообщает Science Times.
Фото из открытых источников
Письмо, подписанное в том числе бывшим исследователем по вопросам управления в OpenAI Дэниелом Кокотайло, содержит серьезные обвинения в адрес компании. Авторы утверждают, что OpenAI игнорирует потенциальные угрозы, связанные с разработкой общего искусственного интеллекта (AGI), и стремится стать первопроходцем в этой области, несмотря на возможные риски для человечества.
Кокотайло, который присоединился к OpenAI в 2022 году, выразил опасения, что компания может достичь AGI к 2027 году, что, по его мнению, может привести к катастрофическим последствиям. Он цитирует вероятность в 70%, что ИИ может уничтожить человечество, если не будут приняты соответствующие меры безопасности.
Открытое письмо также упоминает Джеффри Хинтона, известного в научных кругах как «Крестного отца ИИ», который, по слухам, покинул Google по аналогичным причинам. В письме подчеркивается необходимость информирования общественности о потенциальных угрозах ИИ и призыв к более ответственному подходу к разработке технологий.
В ответ на публикацию письма OpenAI заявила о своей приверженности безопасности и утверждала, что следует научному подходу в устранении рисков. Компания подчеркнула свои достижения в создании безопасных и производительных систем ИИ.
Тема AGI остается одной из самых спорных в области искусственного интеллекта. В отличие от современных ИИ, которые работают в рамках определенных параметров, AGI представляет собой систему с человекоподобным интеллектом, способную самостоятельно учиться и решать разнообразные задачи. Несмотря на то что AGI пока остается в ранге теоретической концепции, споры вокруг нее продолжают набирать обороты, подчеркивая важность ответственного подхода к будущему ИИ.
Источник: esoreiter.ru