Добавить новость
Новое

Татарстанцам рассказали, как нейросети меняют наше восприятие реальности и какие последствия это может иметь?

Искусственный интеллект уже стал неотъемлемой частью жизни почти каждого из нас. Нейросети используют сейчас практически во всех сферах, но важно понимать, что это инструмент новый, а правила игры старые и, если их нарушить — даже в цифровом пространстве — наказание неотвратимо.

Так, в начале недели в социальных сетях появилась новость о пожаре в торговом центре — как сообщили в МЧС, эта новость оказалась фейком. Так как отличить реальность от её виртуальной версии и какое наказание грозит цифровым художникам? Мнения экспертов у Вадима Вольского.

Искусственный интеллект сегодня — наш главный цифровой помощник. Пока мы записываем этот кадр, нейросети обрабатывают гигантские массивы данных, берут на себя рутинные задачи и облегчают работу программистам. Освобождая время для творчества и по-настоящему важных решений.

В создании проектов, режиссёру — Степану Тугову помогают нейросети. Прямо в монтажной программе можно исправить неточности и ошибки.

«То есть можно убирать шумы различные, которые невозможно просто так убрать или какие-то косяки, проблемы при съёмке происходили. Предположим, мы снимали изображение FULLHD, либо в ещё более низком качестве и нам нужно наоборот эту картинку растянуть и сделать больше. И сейчас искусственный интеллект позволяет дорисовать пиксели, тем самым, улучшая качество картинки», — рассказал режиссёр видеоконтента — Степан Тугов.

Одно из самых массовых применений нейросетей, помимо написания текстов и поиска информации-оживление фотографий или генерация видео по прописанным задачам.

Даем задачу — как люди на фотографии должны вести себя — пара минут и те, кого с нами нет – буквально оживают, путь и на пару мгновений.

Огромную популярность в сети набирает клип, в котором полностью сгенерировано и видео, и музыка — на слова известной детской песни.

Искусственный интеллект совершенствуется ежедневно — делает то, на что людям требовались месяцы и годы. Применяется в разных сферах от медицины и логистики до перевода на сотни языков.

Однако, у технического прогресса есть и обратная сторона. Стремительное развитие нейросетей породило эпоху идеальной лжи. Главный вопрос сегодня: сможем ли мы управлять интеллектом, который уже начинает думать быстрее своих создателей.

На этих фото — над «Корстоном» сгущаются черные клубы дыма, стоят пожарные машины, а люди выходят из здания.  Но на официальных сайтах  МЧС  Республики, где информация появляется оперативно — о пожаре ни слова. Как выяснилось, это ЧП- не более чем фейк. Это же подтвердили и сотрудники торгового центра.

 «В телеграмм-каналах читал, что у вас здание горело, — Сам читал, что здание в огне. Все выскочили – ничего нет, — А пожарные кто-то приезжал что ли? – Нет, никого не было”, — сообщил в диалоге охранник торгового центра.

И это не единичный случай.

В октябре прошлого года сети всколыхнуло видео – косолапый расхаживает по Царево, что тогда вызвало панику среди местных жителей.  Или якобы погоня за машиной, которая развалилась пополам на ходу. Все это работа нейросетей. И неизвестных анонимных пользователей, которые вбрасывают такие видео в соцсети.

Эти видео шуточные, но, когда речь идёт о предполагаемой опасности – создателям такого контента должно быть не до смеха. За такие забавы грозит ответственность не только финансовая, но и уголовная.

«Штрафы могут доходить от 30 тысяч рублей до 5 миллионов рублей, в зависимости от статьи. Если же распространенная фейковая информация привела к серьёзному ущербу или если по неосторожности наступила смерть человека или иные тяжкие последствия – нарушителю грозит уголовная ответственность. Наказание может дойти до срока до 5 лет», — прокомментировал юрисконсульт первой категории ФГУП ВГТРК «ГТРК-Татарстан» — Кирилл Рачков.

Как отмечают специалисты, уже и сам искусственный интеллект может подтасовывать факты и менять реальность.

«Галлюцинации искусственного интеллекта. То, что он нам может теперь уверенно врать, выдумывая факты или законы. Это опасно, когда мы используем выводы искусственного интеллекта без проверки, или галлюцинации, связанные с поведением, когда искусственный интеллект может нам насоветовать что-то вредное», — заявил руководитель отдела разработки программных интерфейсов, ИИ и анализа данных, резидент ОЭЗ «Иннополис» — Вадим Кондаратцев.

Эксперты утверждают, что в ближайшие годы – тенденция продолжится- отличитьреальных людей от сгенерированного видео- будет почти невозможно. Главная угроза — это возникающий кризис доверия. И дипфейки — это только вершина айсберга.

«То есть, мы больше не можем использовать видеозаписи или аудиосообщения, чтобы доказывать что-либо, например, в суде или в новостях. Нам придётся перестраиваться по отношению к тому,какой информации мы можем доверять», — продолжил руководитель отдела разработки программных интерфейсов, ИИ и анализа данных, резидент ОЭЗ «Иннополис» — Вадим Кондаратцев.

В Китае c 1сентября прошлого года — разработчики должны помечать, что материал сгенерирован нейросетью. В Госдуме России рассматривают законопроект о введении ответственности за использование подмены голоса или лица. Определить, где настоящее, а где искусственное становится все сложнее, а потому эксперты советуют — единственный способ не попасть с иллюзорные сети сейчас — перепроверять  любую поступающую информацию в интернете, и опираться на официальные источники.

Сообщение Татарстанцам рассказали, как нейросети меняют наше восприятие реальности и какие последствия это может иметь? появились сначала на Вести Татарстан.

Moscow.media
Музыкальные новости

Новости Татарстана





Все новости Татарстана на сегодня
Президент Татарстана Рустам Минниханов



Rss.plus

Другие новости Татарстана




Все новости часа на smi24.net

Новости Казани


Moscow.media
Казань на Ria.city
Новости Крыма на Sevpoisk.ru

Другие города России