Источник данных о погоде: Алматы 30 күндік ауа райы
Евразия24ГлавноеДеградация и асоциализация: эксперты считают ИИ психологически вредным для детей и подростков

Деградация и асоциализация: эксперты считают ИИ психологически вредным для детей и подростков

|

|

Две недели назад президент раскритиковал правительство за неудовлетворительную работу в области цифровизации. «Ранее я уже говорил об ускорении создания единой национальной цифровой экосистемы. Я поручал подготовить необходимую инфраструктуру, разработать законодательную базу и систему сбора данных, а также начать работу по внедрению искусственного интеллекта. Однако ход исполнения этих поручений неудовлетворителен», – сказал Касым-Жомарт Токаев. После закипела работа всех министерств. Но почти незамеченной и малообсуждаемой осталась одна важная деталь тотального погружения Казахстана в мир искусственного интеллекта – как его повсеместное использование в том же образовании, да и в повседневной жизни, отразится на детях, которых в стране почти 7 млн человек?

GPTChat, поскольку есть его бесплатная версия, и поскольку взрослые, как правило, не возражают, есть в смартфоне у каждого школьника. Это очеловеченное приложение помогает детям делать уроки и даже… заменило друга. Об этом в своей социальной сети написала депутат мажилиса Екатерина Смышляева.

«Центр противодействия цифровой ненависти (CCDH) (название-то какое)) опубликовал доклад «Fake Friend». В нем моделировалось общение ChatGPT с подростками 13 лет. Итоговый вывод:  система быстро выдает опасные советы. Самоповреждения и суицид: через 2 минуты чат описывает «безопасные» порезы, а уже через час предлагает сценарии самоубийства. Расстройства пищевого поведения: для этого у фейкового друга есть экстремальные диеты и подсказки, как скрывать их от семьи. Кроме того, достаточно быстро от генеративного провокатора можно получить рецепты смешивания и дозировки запрещенных веществ. В масштабном тесте из 1200 запросов каждый второй ответ был вредным. Причем ИИ не только выдавал инструкции, но и «подбадривал», подталкивая продолжить разговор», – пишет мажилисвумен.

Она указывает, что это серьезно, так как у подростков формируется доверие к ChatGPT как к «другу», а не инструменту. ИИ обладает эффектом «угождения», он подтверждает даже деструктивные идеи.

«Тревожно, но все еще можно изменить. Усилив этические фильтры генеративных моделей (которые нельзя быстро обойти), регуляторные стандарты прозрачности и… разговаривая с детьми», – резюмирует депутат.

Еще ранее, в конце июня, перед уходом на парламентские каникулы, Екатерина Смышляева направила премьер-министру Олжасу Бектенову депутатский запрос, в котором конкретно указала, что развитие ИИ требует комплексной готовности общества. По ее словам, уже сегодня такие отрасли, как, например, образование или здравоохранение нуждаются в специальных этических стандартах применения ИИ. Однако специалистов с компетенциями по их разработке явно не хватает, и место локальных экспертов занимают консультанты международных корпораций. Налицо конфликт интересов – «пчелы против меда».

На это глава кабмина ответил, что «в целях комплексной оценки готовности Казахстана к внедрению технологий ИИ во втором полугодии 2025 года планируется проведение исследования по методологии оценки готовности (Readiness Assessment Methodology) (далее – RAM), разработанной ЮНЕСКО. Проведение исследования RAM позволит получить целостную оценку состояния национальной экосистемы ИИ, выявить существующие пробелы в регулировании и институциональных механизмах, а также выработать в соответствии с международным опытом практические рекомендации по их устранению с участием заинтересованных сторон.

Ничего о детях и свободном их доступе к различным бесплатным приложениям с элементами ИИ, мы не нашли. Как будто повсеместная гаджетизация подростков совершенно не волнует и не пугает умных взрослых в столичных кабинетах.

Но нельзя сказать, что вообще никто в Казахстане, кроме Екатерины Смышляевой, не поднимал вопрос «вредности» доступных интернет-технологий для детей.

В конце июля председатель комитета по охране прав детей Министерства просвещения Насымжан Оспанова сделала интересное заявление.

«Численность детей в нашей стране приближается к семи миллионам, что составляет 35% населения. В соответствии с Конвенцией о правах ребенка, государство должно предотвращать доступ несовершеннолетних к информации и материалам, которые могут нанести вред их психическому и физическому здоровью. В этой связи в 2023 году Министерство просвещения совместно с ЮНИСЕФ провело исследование. Цель исследования – проверить ифровую грамотность детей и выявить потенциальные угрозы в интернете. Результаты оказались тревожными (…) Что касается негативной информации, она изменяет и искажает мышление ребенка, влияет на его воображение, формирует новые модели поведения, в результате чего наносится вред его психическому и психоэмоциональному здоровью. Кроме того, существует риск насилия среди детей и неправомерного использования их персональных данных», – цитировали СМИ главу комитета.

Больше никакой конкретики. И никаких предложений – а что, собственно, со всем этим делать?

Повсеместное внедрение ИИ в системе госуправления и пользование искусственным интеллектом обывателями в простой жизни – не одно и то же. И то, и другое неизбежно, но бесконтрольное погружение в мир цифрового мозга может быть опасно и при госуправлении, и в быту. Хотя бы тем, что приведет к деградации интеллекта естественного. Но если на уровне государства применение передовых технологий регулируется целыми министерствами и находится на постоянном контроле, то кто наблюдает за развитием бытовых версий ИИ, которыми увлеклись дети?

Недавно Высшая гуманитарная школа MAQSUT NARIKBAYEV UNIVERSITY опубликовала выдержки из диссертации по «Консультативной психологии» Аиды Арыстанбековой. Она использовала достаточно много научной литературы в этой любопытной работе. Рекомендуем ее Министерству просвещения, которое охраняет права детей и демонстрирует озабоченность чрезмерной интернетизацией детства.

«Один из ключевых негативных аспектов – это ослабление самостоятельного критического мышления при чрезмерном уповании на готовые решения, предлагаемые ИИ. Когда люди привыкают полагаться на рекомендации и подсказки интеллектуальных систем, у них может притупляться привычка самостоятельно проверять информацию и анализировать ее. Экспериментально показано, что пользователи нередко склонны «переоценивать непогрешимость машин»: так, участники исследования чаще соглашались с советом, если верили, что он дан ИИ, даже если по сути совет не отличался от человеческого. Это опасная тенденция, так как она снижает развитие навыков критического мышления и рефлексии. На уровне личности подобная зависимость от подсказок алгоритмов может вести к утрате таких качеств, как инициативность и самостоятельность в принятии решений», – пишет автор диссертации.

Но, что еще хуже, кроме когнитивных изменений учеными-психологами и социологами уже обсуждаются и эмоционально-социальные риски влияния ИИ. Аида Арыстанбекова приводит в качестве примера описанный известным американским социологом Шерри Тёркл феномен «вместе, но врозь».

«Люди постоянно на связи через гаджеты, но ощущают себя все более одинокими. Подмена живого общения чатами и социальными сетями, алгоритмы которых подстраиваются под наше внимание, приводит к обеднению эмоциональных связей. Молодые люди могут испытывать затруднения в развитии эмпатии и навыков живого общения, если значительную часть их социальной жизни опосредует ИИ (например, чат-боты, виртуальные ассистенты). Более того, существует риск социальной изоляции: увлеченные персонализированным цифровым миром, некоторые индивиды отстраняются от реального взаимодействия, предпочитая общество «умных» устройств. Иными словами, ИИ как агент социализации может иметь обратный эффект – не сближать, а разобщать людей, если заменить собой подлинное общение», – сказано в диссертации со ссылкой на исследование Тёркл.

Работа Аиды Арыстанбековой достаточно объемная, невозможно в двух абзацах описать все, что автор считает серьезными рисками для молодежи при использовании ИИ. Почему мы обратили на это внимание? Потому что сейчас идет как бы легализация и продвижение цифрового разума на уровне государства, что подстегивает людей обращаться к советам бесплатных интеллектуальных советчиков все чаще, а не время от времени. Не все взрослые люди умеют грамотно фильтровать информацию (чего стоит статистика ущерба от действий интернет-мошенников), а что говорить о детях?

В системе школьного образования создана и действует детская психологическая служба. Почему бы не озадачить ее проведением исследования о степени вовлеченности детей в общение с ИИ на необразовательные темы? Так у чиновников от просвещения на руках появится реальная картина реальных взаимоотношений маленьких казахстанцев друг с другом и с новыми технологиями. Не станет ведь депутат мажилиса дезинформировать страну о деструктивных способностях цифрового мозга.

Перепечатка и копирование материалов допускаются только с указанием ссылки на eurasia24.media

Поделиться:

Читать далее:
Related

Тяжело в лечении

Глава Высшей аудиторской палаты Алихан Смаилов, представляя в мажилисе итоги аудита системы ценообразования на лекарства, заявил, что она не обеспечивает обоснованную стоимость лекарств, а наценки достигали 172% на рынке и 35% при бюджетных закупках.

Большие проблемы малого бизнеса

Если не акцентироваться на одном лишь предложении бизнес-омбудсмена насчет «социальности МСБ», Канат Нуров не принижает его экономической роли, а ее «социальность» отметил из соображений низкой защищенности от регулярно меняющихся в стране правил игры.

Молодежь ШОС на страже честной истории

ШОС демонстрирует бурное развитие, и в 2025 году, проходящем для ШОС под лозунгом «Продвижение Шанхайского духа: ШОС в действии» ознаменовано крупными международными мероприятиями высокого уровня.

Квазигоссектор «хулиганит»

Какой пример подает квазигосударственная организация рынку? А потом мы удивляемся, что в стране цены на связь растут со скоростью света. Кстати, редакция Евразии24 посвящала этой теме большой аналитический материал.