Что будет, если использовать ИИ постоянно? Эксперт рассказал о возможностях и рисках
Кирилл Лаптев Новости темы “Проект “В теме” на YouTube-канале БЕЛТА” Врачи чаще носят очки, потому что линзы вредны? Рассматриваем популярный миф “Готовятся и одни, и вторые”. Военный эксперт о вероятности контрнаступа Украины Какие данные нельзя передавать нейросети и что будет, если постоянно использовать искусственный интеллект? Как обучают ИИ в Беларуси и какой законопроект уже в разработке? И почему люди устали от “идеального” сгенерированного контента? На вопросы совместного проекта БЕЛТА и компании А1 “В теме. Технологии” отвечает Кирилл Лаптев, член консультативного совета Национального центра защиты персональных данных.
– Развитие искусственного интеллекта – общемировая тенденция. Довольно давно ИИ пришел и в Беларусь. Как можно использовать его в мирных целях и определить минимальные требования безопасности при работе?
– Это довольно комплексный вопрос. С одной стороны, ИИ – это инновация, технология, которая в мире получила достаточно широкое распространение. О технологии судят, когда она используется глобально, когда ее применяют в каждодневной деятельности как обычные люди, так и крупные организации, когда государство начинает внедрять эту систему. В таком плане искусственный интеллект – собирательное понятие, различные его технологии уже глубоко проникли в повседневную деятельность. Это удобно, быстро, доступно и работает.
С другой стороны, иногда мы не успеваем быстро оценить сопутствующие риски. Как это делать? Что может произойти? Какие последствия? Какая ответственность может наступать? В Республике Беларусь в повестке касательно ИИ эти вопросы сейчас являются ключевыми. Можно сказать, что наша страна в чем-то занимает проактивную позицию. Потому что, например, недавно появившийся модельный закон стран СНГ как раз был разработан в Беларуси, на базе Академии наук. В нем закладываются основы, включая те вопросы, которые мы уже озвучили, – с точки зрения прав, обязанностей, ответственности различных систем, принципов их использования, этики. Что хорошо, что плохо, что можно, а что нельзя, допустимость того или иного с учетом моральных и этических стандартов человечества.
С использованием искусственного интеллекта возникает много сопутствующих вопросов. Если мы говорим про изображения, то существуют вопросы, связанные с адаптацией к реальным условиям, с регулированием и защитой интеллектуальной собственности. Если речь идет о гражданах как о субъектах данных, то поднимается вопрос использования персональных данных. Если провести аналогию с конфиденциальной информацией в других сферах, можно говорить про коммерческую тайну и инсайдерскую информацию, обучение на ее основе систем ИИ. Все вышеперечисленные составляющие нужно систематизировать, чтобы заложить правильную законодательную базу.
В Беларуси как раз сейчас идет подготовка к тому, чтобы создать основу регуляторики, то есть законопроект о технологиях искусственного интеллекта. Чтобы мы понимали, от чего отталкиваться и как это работает.
Если говорить про те вещи, на которые мы в настоящее время не всегда обращаем внимание, то это, скажем, вопрос размещения систем, где идет обработка информации. Как происходит обучение этих систем? Когда мы, например, используем стандартные инструменты – ChatGPT, Perplexity и другие, которые доступны обычному гражданину, то имеются в виду данные, которые мы загружаем в эти системы. Они размещены не в Беларуси, то есть эти данные мы, по сути, передаем, производим трансграничную передачу. Как они там обрабатываются, сохраняются, как обучают систему, мы достоверно установить не можем.
Один из моментов, который отличает современные системы, – то, что спрофилировать, сделать профайлинг конкретного человека, становится легче. Это позволяет более точно предугадать наше поведение. Конкретный пример – спрогнозировать, например, предпочтения и решения покупателя. Раньше, когда всплывала реклама, мы думали: “Вроде бы это хочется”. Вот это и есть, по сути, технологии профайлинга, которым уже много лет уделяется внимание и с точки зрения защиты человека.
Где-то это вопрос алгоритмического принятия решений: когда мы обращаемся в банк и не знаем, одобрят нам кредит или нет, а если да, то с какой процентной ставкой. В других странах его урегулирование зачастую отдавали на откуп автоматизированным системам. Это и вопросы дискриминации, человеческого фактора, насколько он работает. Сейчас, с появлением ИИ, все больше внимания уделяется таким деталям.
Очень много вопросов связаны с возникающими нарушениями прав других субъектов. Немало споров ведется о том, что на самом деле системы искусственного интеллекта были обучены для набора данных. Ведь в основе ИИ две составляющие – технологии и данные. Эти данные – “топливо”, чтобы система ИИ работала и выдавала адекватные результаты по запросам. В том числе чтобы была синхронность с теми задачами, которые мы ставим. И в этом плане наборы данных, которые есть в Беларуси, это ценность, массив информации, которую мы должны обрабатывать.
Для примера можно привести недавно анонсированные Национальным банком системы, создаваемые внутри нашей страны, которые будут обрабатывать доступные ему, а также коммерческим банкам данные для того, чтобы ускорить, упростить и улучшить сервисы и работу банковской системы. Это то направление, которое, как мне кажется, может потом отразиться и на функционировании других отраслей.
– Что бы вы могли посоветовать при работе с искусственным интеллектом?
– Дам философский ответ: не забывайте, что вы люди. Следует помнить об этом, сохранять критическое мышление, проверять и думать. Согласно одному из исследований, если полностью полагаться на систему ИИ, то способности к критическому мышлению снижаются. В работе продолжайте анализировать и перепроверять результаты, используя ИИ как помощника для решения задач. При внедрении его в более крупные процессы не будет лишним составлять систему контроля, понимать то, как это работает и на что может повлиять. Это риско-ориентированный подход в какой-то степени.
А для себя – это быть внимательнее к отдельным новым злоупотреблениям, способам мошенничества, чтобы не попасться на высокотехнологичные уловки современных мошенников.
– Какие программы с искусственным интеллектом вы бы не советовали загружать?
– Каждый раз, когда вы загружаете данные в систему ИИ, стоит подумать и допустить, что эта информация не была защищена, уже попала кому-то в руки и будет использоваться в отношении вас для других целей. Не всегда злонамеренных, но не тех, которые вы планировали. Если вы считаете, что это нормально, можете делать.
В то же время мы живем в таком мире, когда сказать, что наши данные кому-то сейчас недоступны, достаточно сложно. Поэтому просто проявляйте обычную осмотрительность. Но при этом не отметайте плюсы технологий, а выдерживайте баланс.
– Заменит ли искусственный интеллект человека в ближайшее время?
– На мой взгляд, нет. Скорее, упростятся некоторые технические, стандартные задачи. С одной стороны, это будет требовать большего от человека, то есть он должен будет иметь больше навыков для работы с ИИ, способностей для представления широкой картины. С другой стороны, упростит работу с задачами, с которыми поможет ИИ и с точки зрения появляющихся агентов, да даже алгоритмических моделей, которые начинают внедряться проще.
Один из трендов – доступность этой технологии. Кроме систем, которые мы можем использовать, чтобы работать с ИИ (тот же ChatGPT), появляются инструменты на базе open-source решений, позволяющие их применять для более глобальных целей, если есть достаточные аппаратные возможности. Это расширяет внедрение данной технологии. Поэтому мне кажется, что ИИ станет более распространенным, но человек пока незаменим. Просто нужно еще больше двигаться вперед.
Чуть раньше мы говорили о новых злоупотреблениях. Появились системы, которые имитируют человека. Мы ведем переписку вроде бы с человеком, но на самом деле с машиной, которая качественно имитирует собеседника. Имитация голоса, клонирование различных параметров, когда невозможно различить, звонит тебе знакомый или незнакомый человек. Дипфейки, причем не только картинки, но и различные видео, которые тоже можно использовать по-разному. Иногда просто для рекламы, но разные сегменты можно затрагивать. Технологии упрощаются.
Сейчас люди начинают на уровне подсознания привыкать распознавать, где сгенерированный объект, а где – реальный. Усталость от сгенерированных изображений, видео и стремление к “натуральному” повышают ценность созданного именно человеком.
– Если подвести итог, мы понимаем, что много наших данных уже есть в сети. Но лишний раз загружать туда персональные данные – это еще раз давать возможность потенциальным злоумышленникам что-то узнать о нас и составить портрет. Кто-то отправит вам рекламу, а кто-то позвонит и расскажет о родственниках в беде.
– Думать об этом риске стоит всегда. Если вы оценили и сочли его приемлемым, то делать можно. Но постоянно доверять исключительно технологии может быть небезопасно. Когда получаете какую-то информацию, тоже помните, что технологии продвинулись достаточно далеко и лишний раз проверяйте. Позвоните родственникам сами и уточните, кто с вами связывался. То есть чуть-чуть больше внимания к обычной информационной гигиене и общения с родными и близкими поможет избежать рисков, которые несут технологии и инновации, призванные упрощать и развивать нашу жизнь.
– А также помните о правиле #Подумайте5секунд перед тем, как что-то сделать.
| Подготовлено по видео БЕЛТА. Скриншоты видео.
Читайте также:
Что делать, чтобы Wi-Fi работал хорошо? Устанавливаем роутер правильно
Красивый не равно честный? Как мошенники ловят на приятную внешность: ТОП манипуляций
Как выглядит преступник, а как – жертва? Рассказываем, кто и как обманывает белорусов
Источник: www.belta.by