Тулякам рассказали, могут ли помочь нейросети в работе и жизни
Согласно опросу 64 % россиян что-то слышали о работе нейросетей. Сюда входят дипфейк-технологиии (реалистичная подмена фото-, аудио- и видеоматериалов), умные чат-боты наподобие ChatGPT и генераторы изображений (Midjourney). Наиболее перспективным люди посчитали генераторы изображений — 43%, умные чат-боты — 40% и дипфейк-технологии — 31%. Однако некоторые опрошенные опасаются, что развитие нейросетей лишит их работы. Такое мнение в отношении умных чат-ботов разделяют 30% респондентов, генераторов изображений — 25%, а дипфейк-технологий — 22%. Правдивы ли их опасения, Тульской службе новостей рассказал руководитель группы исследований и разработки технологий машинного обучения в «Лаборатории Касперского» Владислав Тушканов.
Технологии vs технологии
Однако, по его словам, из-за них появились и новые угрозы.«Нейросети – это такой же инструмент, наподобие молотка которым забивают гвозди», — объясняет специалист.
Как отмечает специалист, где появляются угрозы, там возникают средства противодействия.«Это, например, дипфейки – такие видео, где человек делает то, чего в реальной жизни не было. Этим люди могут пользоваться для мошеннических целей, шантажа», — рассказывает Владислав Тушканов.
Свобода творчества«Есть технологии, которые позволяют обнаружить видео с дипфейками. Здесь идет такая борьба или гонка вооружений между защитниками и злоумышленниками», — объясняет исследователь данных.
По словам Владислава Тушканова, нейросети не заменят людей, а позволят нам выполнять более креативную работу, избавив от скучной рутины.
Подобная история, по словам специалиста, складывается и в кибербезопасности. Машинное обучение помогает обрабатывать большое количество потенциально опасных объектов и событий.«Один из примеров — зарубежная журналистика, где создание новостей на основе каких-то локальных местных спортивных мероприятий происходит через нейросети. То же самое с биржевыми сводками. Подобную работу можно автоматизировать», — добавляет эксперт.
Чувствительные темы«Сейчас мы видим, что многие предпочитают использовать картинки, которые сгенерировал искусственный интеллект. Возможно, это осложнит задачу тем, кто пополняет фотостоки. Однако рутинная работа автоматизируется в большем объеме. Тогда люди будут браться за креативные задачи, в нашем случае это исследование сложных угроз, расследование APT», — объясняет Владислав Тушканов.
Людям, которые только начинают изучать нейросети, эксперт советует больше пробовать, но не забывать о правилах безопасности: не добавлять приватные данные, сведения о здоровье, информацию о родственниках.
Поэтому специалисты советуют не делиться частными данными, критически подходить к тому, что нейросети генерируют и больше пробовать.«На нейросети не стоит полагаться в критических вещах. Если что-то болит, то лучше обратиться к врачу. Тем более нейросети склонны к тому, что мы называем галлюцинацией. Они очень уверенно и хорошим языком говорят глупости», — отмечает Владислав Тушканов.
-
«Росгосстрах» подтвердил лидерство в страховании строений россиян — данные ЦБ
-
Опрос: три четверти россиян учитывают необходимость уплаты налога при открытии вкладов
-
Авито и МЧС России запустили онлайн-игру для обучения правилам безопасности
-
Министр массовых коммуникаций Тульской области поздравил ассоциацию «Медиа Траст» с получением самой престижной награды в области радиовещания
-
Медиа-скорпион Тульской области: генеральный директор МИЦ ТСН24 Татьяна Горюнова отмечает юбилей
-
Свободная дата 2.0: как Тула собрала на праздник ивент-экспертов из разных городов