Добавить новость

Ставропольские эксперты предупредили о рисках зависимости от нейросетей

1777.ru (Ставрополь)
60

Ставропольские эксперты предупреждают о рисках чрезмерного доверия к нейросетям. В других странах уже стали появляться группы психологической помощи для пострадавших от взаимодействия с искусственным интеллектом (ИИ). На Ставрополье подобных групп нет, сообщает «Победа26», но могут появиться, ведь пользователей ИИ с каждым днем становится все больше.

«Я считаю, что если такая практика где-то уже существует, то в России она тоже будет нужна. Неважно, наберет ли популярность. Нужно просто брать и собирать группы из тех, кому это необходимо», — заявила психолог Марина Грицай.

Специалист отметила, что ее клиенты все чаще обращаются за советами к нейросетям вместо профессионалов. Люди даже отправляют ChatGPT скриншоты переписок с близкими для анализа конфликтов или ищут разъяснения психологических терминов.

Само общение с искусственным интеллектом не несет никакой опасности. Такие диалоги могут стать источником вдохновения, помочь раскрыть собственный потенциал. Опасность же представляет безоценочность искусственного интеллекта. «Чат GPT — это машина, которая не будет тебя осуждать. Она может не то чтобы оправдать твои откровенно плохие поступки, а найти в них положительные стороны. Человек с импульсивной структурой характера может часами общаться с нейросетью, чтобы она поясняла ему, почему все дураки, а он хороший. Эта безоценочность особо привлекает и даже создает эффект конфиденциальности», — объяснила Грицай.

По ее словам, люди с психическими расстройствами или повышенной тревожностью могут формулировать запросы, заранее подразумевающие определенный ответ, что усугубляет их состояние.

Заведующий кафедрой организации и технологии защиты информации СКФУ Вячеслав Петренко предупредил, что конфиденциональность в общении с нейросетями скорее мнимая. Например, в бесплатной версии ChatGPT сообщения могут анализировать люди-тренеры для улучшения системы.

«Главное правило безопасности простое: никогда не доверяйте нейросети конфиденциальную информацию. Не вводите номера паспортов или банковских карт, медицинские диагнозы, коммерческие тайны или личные секреты», — посоветовал эксперт.

20-летняя жительница Ставрополя Вероника Комнатная во время общения с чатом GPT подмечает, что в ответах он избегает конкретики и фактов, но хорошо выстраивает дружеские диалоги.

«Если говорить с ИИ, как с подружкой, он начнет использовать разговорные слова и писать со смайликами. Может и грубить», — поделилась девушка.

27-летний дизайнер и художник 3D-графики из Ставрополя Александр Попов активно применяет ИИ в своей работе. Специалист отмечает, что нейросети помогли ему повысить продуктивность. Однако молодой человек выявил негативную тенденцию: современные технологии снижают мотивацию к самостоятельному поиску и анализу информации.

«Нейросеть расслабляет — уже не хочется самому лазить по поисковику. Я человек, который застал дискеты, ходил в библиотеку и собирал информацию вручную. У меня критическое мышление встроено в подкорку, оно никуда не делось. Но у более молодых поколений могут быть проблемы, когда за тебя все анализирует нейросеть и нет необходимости учиться думать самостоятельно», — поделился опасениями Попов.

Эксперт Вячеслав Петренко также отметил склонности ИИ к «галлюцинациям» — созданию убедительно звучащих, но ложных фактов. Проверка критически важной информации остается ответственностью пользователя.

Психолог Марина Грицай считает, что частое использование ChatGPT может негативно влиять на гибкость ума и препятствовать развитию критического мышления, воображения и творческих способностей. Тем не менее специалист не рекомендует демонизировать нейросети. Они не навредят тем, кто применяет ИИ в качестве вспомогательного инструмента.

«Насторожиться можно тогда, когда человек изливает душу чату GPT, избегая общения с психологом. Ведь исцелить так называемый цикл травмы можно только посредством живого контакта, как минимум с одним специалистом, а лучше и при помощи группового лечения. Поэтому, на мой взгляд, искусственный интеллект никогда не сможет заменить живого человека», — пояснила Грицай.

Сам ChatGPT характеризует себя как продвинутую программу, имитирующую общение. Система отмечает относительную безопасность использования ИИ для развлечения, обучения и получения информации.

«Вред возникает при дисфункциональном, чрезмерном и наивном использовании, когда стирается грань между инструментом и живым существом. При осознанном и сбалансированном подходе ИИ может быть скорее полезным или нейтральным инструментом. Однако обществу и каждому из нас еще предстоит выработать гигиену такого общения», — говорит ChatGPT.

Moscow.media
Музыкальные новости

Новости Ставрополя





Все новости Ставрополя на сегодня
Губернатор Ставропольского края Владимир Владимиров



Rss.plus

Другие новости Ставрополя




Все новости часа на smi24.net

Новости Ставропольского края


Moscow.media
Ставрополь на Ria.city
Новости Крыма на Sevpoisk.ru

Другие города России