ИИ-чат-боты начали набирать обороты, а эксперты потянулись к тревожной кнопке
Аналитики ждут роста дезинформации, мошенничества в e-com и угроз конфиденциальности данных
Генеративный искусственный интеллект молниеносно распространился в 2023 г.Технологические гиганты США и Азии, такие как Microsoft, Google, Alibaba, Baiduи Tencent, быстро разработали планы по внедрению функций искусственногоинтеллекта (ИИ) в свои платформы. На фоне всеобщего энтузиазма к тревожнойкнопке потянулись аналитики, задавшиеся вопросом: «Что будет, если ИИ попадетне в те руки?». Возможные риски в своем обзоре приводит изданиеDigiday.
За последние несколько лет IT-компания McAfee и другие цифровые корпорациичасто экспериментировали с искусственным интеллектом. Например, McAfee провелаисследование, в котором использовала машинное обучение, чтобы проанализироватьатаки искусственного интеллекта и понять, как нейросети обходят механизмыобнаружения. В компании уже отметили, что по мере развития экспериментаэкспертам придется преосмысливать лучшие практики кибербезопасности 2022 г.
Развитие искусственного интеллекта бросает новые вызовы не только кибер-, нои информационной безопасности. Уже зафиксировано множество случаев, когдагенераторы текста выдавали пользователям так называемые «галлюцинации» —неправильные ответы. Таким образом, считают аналитики, может распространятьсякак непреднамеренная, так и преднамеренная дезинформация. И платить за ошибкибудут не только обманутые пользователи, но и корпорации. Неделю назад рыночнаяцена Google упала на $100 млрд после того, как в рекламном видео новогочат-бота Bard была представлена дезинформация.
Хотя платформы ИИ появились относительно недавно, они уже имеют широкоевлияние. По оценкам аналитиков, аудитория ChatGPT в январе этого года достигла100 млн активных пользователей в месяц. Такие компании, как OpenAI, ужеработают над устранением различных проблем, но некоторые отмечают, чтомошенники все еще могут использовать инструменты в злонамеренных целях. Напрошлой неделе исследователи обнаружили, что хакеры уже нашли способ обойтиограничения на создание незаконного контента.
Директор по технологиям общественных интересов Electronic FrontierFoundation, некоммерческой организации по защите цифровых прав Джон Калласотметил, что ИИ может стать угрозой для неприкосновенности частной жизни и правинтеллектуальной собственности, а также причиной разжигания ненависти.«Чат-боты учатся у людей, которые общаются с ними, и злоумышленники могутзаставить их говорить неприятные вещи», — полагает эксперт.
Также ИИ может создать новые проблемы для e-com, например сгенерироватьподдельные отзывы или изображения. Но модерация контента была сложной задачейеще до появления генеративного ИИ и до сих пор требует включения в работу каклюдей, так и машин, отметил соучредитель и генеральный директор израильскойфирмы по кибербезопасности CHEQ Гай Титунович. Тем не менее эксперт полагает,что остановить развитие искусственного интеллекта уже не получится. «Сухойзакон не сработал 100 лет назад, — сказал Титунович. — И я думаю, что попыткиостановить ИИ будут такими же бесполезными».
Источник: ria novosti