Главная

Миссия

Содержание

Новости

Связи

Авторы

Публикации

О нас

Форум гармонии

Peace from Harmony
Mike Whitney. V.P. Vance Rejects 'Safe' A.I. at Paris Summit. Майк Уитни. Т. Д. Вэнс отвергает «безопасный» ИИ на саммите в Париже

 

V.P. Vance Rejects 'Safe' A.I. at Paris Summit

by

Mike Whitney

February 14, 2025

https://www.unz.com/mwhitney/v-p-vance-rejects-safe-a-i-at-paris-summit/?utm_source=email&utm_campaign=mwhitney:

 

         More and more people are beginning to realize that Artificial Intelligence is a high-risk technology that could lead to the extermination of the species. That may sound like an exaggeration, but if you follow the developments in AI closely, you’ll see that it’s an accurate assessment. AI is a potentially lethal technology that can either be used to benefit mankind or pave the way to unimaginable death and destruction. Check out this excerpt from an article at Scientific American:

         A 2023 survey of AI experts found that 36 percent fear that AI development may result in a “nuclear-level catastrophe.” Almost 28,000 people have signed o­n to an open letter written by the Future of Life Institute, including Steve Wozniak, Elon Musk, the CEOs of several AI companies and many other prominent technologists, asking for a six-month pause or a moratorium o­n new advanced AI development….

         Why are we all so concerned? In short: AI development is going way too fast. Here’s Why AI May Be Extremely Dangerous—Whether It’s Conscious or Not, Scientific American

         Elon Musk has used his platform at X to amplify his concerns about AI and to emphasize the need to proceed with caution in order to minimize the risks. Regrettably, Musk’s concerns have been lost o­n the Trump administration who see AI as the weapon they need to maintain America’s dominant position in the world order. The conflict that is brewing between Trump and Musk o­n this key issue has not yet exploded into public view, but we can be reasonably certain that the clash will take place sometime in the near future. If we consider, for example, Vice President JD Vance’s alarming speech at the AI Summit in France this week, in which the VP flatly rejected the push for prudent regulation or government oversight while characterizing people who take such concerns seriously as “too self-conscious and too risk averse”, then we don’t need to wonder what the administration’s approach will be. In fact, Vance summed it up for his audience in o­ne shocking sentence: “The AI future is not going to be won by hand-wringing about safety…”

         So, taking sensible steps to avoid a full-blown mass extinction event is “hand-wringing”??

…..

 

Comment. Compare this article with a similar article by this author:

         Mike Whitney. The Risks of Artificial Intelligence: China’s DeepSeek Bombshell Rocks Trump’s $500B AI Boondoggle. 24-01-25: https://peacefromharmony.org/?cat=ru_c&key=1111

          Also with this: Elon Musk. ‘With artificial intelligence we are summoning the demon.’ 24-10-14: https://peacefromharmony.org/?cat=ru_c&key=1112

------------------------

 

Майк Уитни

Вице-президент Вэнс отвергает «безопасный» ИИ

на Парижском саммите

14 февраля 2025 г.

https://www.unz.com/mwhitney/v-p-vance-rejects-safe-a-i-at-paris-summit/?utm_source=email&utm_campaign=mwhitney:

 

         Все больше людей начинают понимать, что искусственный интеллект — это высокорисковая технология, которая может привести к уничтожению вида. Это может показаться преувеличением, но если вы внимательно следите за развитием ИИ, вы увидите, что это точная оценка. ИИ — это потенциально смертельная технология, которая может быть использована как на благо человечества, так и проложить путь к невообразимой смерти и разрушениям. Ознакомьтесь с этим отрывком из статьи в ScientificAmerican:

         Опрос экспертов по ИИ, проведенный в 2023 году, показал, что 36 процентов опасаются, что разработка ИИ может привести к «ядерной катастрофе».Почти 28000 человек подписались под открытым письмом, написанным FutureofLifeInstitute, включая Стива Возняка, Илона Маска, генеральных директоров нескольких компаний, занимающихся ИИ, и многих других выдающихся технологов, с просьбой о шестимесячной паузе или моратории на разработку новых передовых ИИ...

         Почему мы все так обеспокоены? Короче говоря: разработка ИИ идет слишком быстро. Вот почему ИИ может быть чрезвычайно опасным — независимо от того, является ли он сознательным или нет, ScientificAmerican

         Илон Маск использовал свою платформу в X, чтобы усилить свою обеспокоенность по поводу ИИ и подчеркнуть необходимость действовать осторожно, чтобы минимизировать риски. К сожалению, опасения Маска были упущены администрацией Трампа, которая рассматривает ИИ как оружие, необходимое для сохранения доминирующего положения Америки в мировом порядке. Конфликт, который назревает между Трампом и Маском по этому ключевому вопросу, еще не вырвался на публику, но мы можем быть уверены, что столкновение произойдет в ближайшем будущем. Если мы рассмотрим, например, тревожную речь вице-президента Дж. Д. Вэнса на саммите по искусственному интеллекту во Франции на этой неделе, в которой вице-президент категорически отверг призыв к разумному регулированию или государственному надзору, охарактеризовав людей, которые серьезно относятся к таким проблемам, как «слишком застенчивых и слишком нерасположенных к риску», то нам не нужно гадать, каким будет подход администрации. Фактически, Вэнс резюмировал это для своей аудитории в одном шокирующем предложении: «Будущее ИИ не будет завоевано заламыванием рук по поводу безопасности…»

         Так что принятие разумных мер для предотвращения полномасштабного массового вымирания — это «заламывание рук»?? ….

 

Комментарий. Сравнить эту статью с подобной статьей этого автора:

         Майк Уитни. Риски искусственного интеллекта: китайская бомба DeepSeek потрясает 500-миллиардную ИИ-бессмыслицу Трампа... 24-01-25: https://peacefromharmony.org/?cat=ru_c&key=1111

          А также с этой: Илон Маск. С помощью ИИ мы вызываем демона. 24-10-14:

https://peacefromharmony.org/?cat=ru_c&key=1112

------------------------------

 







Up
© Website author: Leo Semashko, 2005; © designed by Roman Snitko, 2005