Каталог персон
Все персоныРоман Душкин
главный архитектор систем искусственного интеллекта исследовательского центра ИИ по направлению «Транспорт и логистика» НИЯУ МИФИ
Мнение к материалу от 2 ноября 2023 года:
««Декларация Блетчли»: подписана почти всемирная декларация о «катастрофических» рисках ИИ»«Каждый раз, когда я читаю подобные декларации, у меня возникает стойкое ощущение, что именно эти декларации генерировал ChatGPT. Вот он потоком начинает выдавать тезисы и принципы, но очень поверхностные и пустые, как и вот эти декларации. Ну да, есть определенные риски, и эти риски надо выявлять, классифицировать, прорабатывать. Но самому по себе ИИ уже 70 лет с лишним, лично я не считаю эту технологию такой, которая несет в себе экзистенциальную угрозу. Пока он не станет воплощенным в виде роботов-андроидов, которые будут автономно действовать в нашей реальности, такого не будет, что система сама себя осознает и поймет, что человечество представляет угрозу, начнет воевать с ним. То, что политики бьют какую-то там тревогу, ну у них работа такая. Правильно делают, что бьют и какие-то рамки применения пытаются ввести. Самое главное, чтобы не вводили рамки в исследования, потому что это будет больше похоже на неолуддизм (критика влияния научно-технического прогресса на человека и общество».
Мнение к материалу от 9 июня 2023 года:
«Эксперты опровергли информацию о том, что ChatGPT способен создавать полиморфные вирусы»«Полиморфные вирусы в процессе распространения меняют свой код. Здесь действуют определенные законы, которые, похоже, не изменить. Каким бы полиморфным вирус ни был, у него должно быть неизменяемое ядро. Антивирус отыскивает полиморфные вирусы как раз по таким сигнатурам. Хотя с этим тоже можно бороться, есть методы и со стороны зловредов, и со стороны антивирусов. Но поскольку теме полиморфных вирусов в компьютере 40 лет, специалисты в области кибербезопасности прекрасно знакомы с этой концепцией. Даже если будут появляться новые идеи в области вирусописательства, их не позволят сгенерировать в ChatGPT, их будут делать люди, нацеленные на деструктивную деятельность. Даже в случае, если человек придумал новую будоражащую идею, реализовал ее, в том числе при помощи нейросети, это все равно придумал человек. Нельзя говорить, что искусственный интеллект начинает нас порабощать, выдумывает новые концепции, разрушающие современные рамки кибербезопасности. Такого нет и такое вряд ли в ближайшее время произойдет. Человек может при помощи ChatGPT писать программы, но это не так просто, как может показаться. Потому что программы, которые он выдает, могут содержать ошибки. Если человек не обладает навыками программирования, алгоритмическим мышлением, ему будет сложно это обнаружить. Но если он худо-бедно знаком с азами программирования, или вообще продвинутый программист, то ChatGPT позволяет открыть кроличью нору и посмотреть, насколько она глубока. Он позволяет очень быстро делать то, что называется code snippets — маленькие кусочки кода, которые можно использовать в своей программе для решения тех или иных задач».
Мнение к материалу от 23 ноября 2023 года:
«Reuters: сотрудники OpenAI рассказали об ИИ, способном уничтожить человечество» «Опять похоже на вброс, потому что в прошлый раз, когда мы это обсуждали, я говорил, что все это выглядит как мышиная возня, которой не пристало делать большим, серьезным корпорациям. Уж Microsoft могла бы все это отрегулировать. Опять вброс про якобы систему ИИ, которая может навредить человечеству. Никаких фундаментальных барьеров для того, чтобы создать систему сильного искусственного интеллекта, которая будет решать задачи, недоступные человеку, я не наблюдаю. Но эта тема, что система смогла генерировать математические задачи, которые не были в ее исходных данных, на которых она обучалась, с точки зрения специалиста по ИИ — это ерунда, потому что все системы машинного обучения так работают. Им сначала даешь данные обучающей выборки, а потом они генерируют ответы на данных, которых в их обучающей выборке не было. Это основа машинного обучения. Либо опять же в эфир попадают обрывки сведений, на которых нельзя сделать достоверные выводы. Но еще в 60-70-х годах XX века была сделана система — логический анализатор. Ей даешь математическую формальную систему, то есть систему аксиом, правил и вывода, и она тебе генерирует огромное количество математических теорем, которых не было у людей-математиков, и чего-то никто не пугался тогда, что система ИИ производит чудеса и хочет захватить мир».