Скачать книгу

генерал в отставке, Пол Накасоне в 2024 году вошел в совет директоров OpenAI. Официальная версия – для организации безопасности Chat GPT.

      Также рекомендую прочитать документ под названием «Осведомленность о ситуации: Предстоящее десятилетие». Его автор – Леопольд Ашенбреннер, бывший сотрудник OpenAI из команды Superalignment. Документ доступен по QR-коду и гиперссылке.

      SITUATIONAL AWARENESS

      Также сокращенный разбор этого документа доступен по QR-коду и гиперссылке ниже.

      Разбор документа про AGI от Леопольда Ашенбреннера, бывшего сотрудника OpenAI

      Если совсем упростить, то ключевые тезисы автора:

      – К 2027 году сильный ИИ (AGI) станет реальностью.

      Я с этим утверждением не согласен. Мои аргументы приведены выше, плюс некоторые тезисы ниже и описания рисков от авторов говорят о том же. Но опять же, что понимать под термином AGI? Свое определение я уже привел, но единого термина нет.

      – AGI сейчас – ключевой геополитический ресурс. Забываем про ядерное оружие, это прошлое. Каждая страна будет стремиться получить AGI первой, как в своё время атомную бомбу.

      Тезис спорный. Да, это отличный ресурс. Но как мне кажется, его значение переоценено, особенно с учетом сложности создания и обязательных будущих ошибок в его работе.

      – Для создания AGI потребуется единый вычислительный кластер стоимостью в триллион долларов США. Такой уже строит Microsoft для OpenAI.

      Помимо вычислительных мощностей нужны еще затраты на людей и решение фундаментальных проблем.

      – Этот кластер будет потреблять больше электроэнергии, чем вся выработка США.

      Этот тезис мы разобрали выше. Помимо триллиона долларов еще и инвестиции в электрогенерацию, а также появляются риски.

      – Финансирование AGI пойдет от гигантов технологий – уже сегодня Nvidia, Microsoft, Amazon и Google выделяют по $100 миллиардов за квартал только на ИИ.

      Считаю, что без государственного финансирования и, следовательно, вмешательства тут не обойтись.

      – К 2030 году ежегодные инвестиции в ИИ достигнут $8 триллионов.

      Отличное наблюдение. Теперь возникает вопрос, оправдано ли это экономически?

      Несмотря на весь оптимизм Леопольда Ашенбреннера в области сроков создания AGI, он сам отмечает ряд ограничений:

      – Недостаток вычислительных мощностей для проведения экспериментов.

      – Фундаментальные ограничения, связанные с алгоритмическим прогрессом

      – Идеи становятся всё сложнее, поэтому вероятно ИИ-исследователи (ИИ-агенты, которые будут проводить исследования за людей) лишь поддержат текущий темп прогресса, а не увеличат его в разы. Однако Ашенбреннер считает, что эти препятствия могут замедлить, но не остановить рост интеллекта ИИ систем.

      Глава 3. А что может слабый ИИ и общие тренды

      Слабый ИИ в прикладных задачах

      Как

Скачать книгу