Данные отсутствуют...
15.01.2026 18:00

Уоррен Баффетт отметил, что риски, связанные с ускоренным прогрессом искусственного интеллекта, имеют сходство с этапом создания ядерного оружия.
В своем выступлении на телеканале CNBC экс-глава Berkshire Hathaway подчеркнул опасность ситуации, когда руководители в сфере ИИ не обладают ясным представлением о направлении развития этой технологии.
Он привел аналогию, указав, что признание в незнании пути вперед приемлемо в случае, подобном путешествию Колумба, где всегда возможен возврат, но ситуация меняется, если технология уже вышла на свободу, подобно джинну из бутылки.
Известный инвестор провел параллель между неопределенностью лидеров ИИ и словами Альберта Эйнштейна в период Второй мировой войны относительно атомной бомбы, отметив, что такие изменения затрагивают все аспекты мира, за исключением мышления людей.
Баффетт выразил мнение, что проблему ядерного оружия нельзя устранить только финансовыми средствами, однако он был бы готов вложить все свое состояние в решение этой задачи. По его словам, эта идея первой пришла ему в голову при размышлениях о благотворительности. Если бы существовал способ с помощью всех доступных ресурсов добиться отказа от ядерного арсенала трех стран навсегда, он принял бы такое решение мгновенно.
Комментарии Баффетта соответствуют его прежним публичным высказываниям за последние годы. К примеру, на ежегодном собрании акционеров Berkshire Hathaway в мае 2024 года он упомянул, что искусственный интеллект несет в себе значительный потенциал как для пользы, так и для вреда.
Источник фактов: https://www.finam.ru/
← Назад к новостям