Я надеюсь, что поддержка от лидеров в области робототехники и искусственного интеллекта вдохновит других представителей данной отрасли на то, чтобы последовать примеру этих лидеров.
Похожее открытое письмо, опубликованное Тоби Уолшем, предостерегает страны от использования технологий искусственного интеллекта в гонке вооружений. Это письмо подписали 3105 исследователей в области технологий искусственного интеллекта и робототехники, а также 17 701 человек. С данным письмом вы можете ознакомиться и подписаться под ним по ссылке:
Макс Тегмарк, основатель Института будущего жизни, предупреждает о том, что нам нужно хорошо подготовиться к будущему, чтобы изначально правильно воспринимать продвинутые технологии искусственного интеллекта. По словам Тегмарка, если с другими изобретениями и открытиями, такими как огонь, люди имели возможность совершать ошибки и учиться на них, то с развитым искусственным суперинтеллектом у нас такой привилегии нет.
Во всем, что касается развитого искусственного суперинтеллекта, даже небольшие ошибки в планировании могут привести к большим проблемам в будущем. Чтобы не дать этому произойти, Тегмарк подталкивает всех, кто участвует в создании таких технологий, заняться «конструированием безопасности». Ключевыми примерами этого подхода могут быть запрет автономного смертоносного оружия и обеспечение уверенности в распространении преимуществ технологий искусственного интеллекта на все слои общества[357].
Кроме того, если вы заинтересованы в получении свежих новостей и дополнительной информации о данных проблемах, я рекомендую вам стать участником Института будущего жизни (Future of Life Institute). Сделать это можно по ссылке:
101. Как подготовиться к эпохе искусственного интеллекта?
101. Как подготовиться к эпохе искусственного интеллекта?
Вас заинтересовали идеи и информация, с которыми вы ознакомились в данной книге? Последней моей рекомендацией будет просто создать собственный план по внедрению технологий искусственного интеллекта в вашу жизнь и следовать ему!