Інформація

Команда AI від Microsoft випустила бота, який може генерувати фальшиві коментарі, Інтернет запитує, чому

Команда AI від Microsoft випустила бота, який може генерувати фальшиві коментарі, Інтернет запитує, чому


We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

Дивно, що команда Microsoft випустила роботу над ботом AI під назвою DeepCom, який можна використовувати для створення фальшивих коментарів до статей новин.

Команда каже, що ці фальшиві коментарі можуть створити залучення для нових веб-сайтів та новин, що по суті заохочує використання фальшивих акаунтів для створення реального залучення до фальшивих дискусій.

ПОВ’ЯЗАНІ: НОВИЙ ІНСТРУМЕНТ ШІ може допомогти нам в боротьбі з письмовими підробленими новинами

Чи нам це потрібно?

Коротка відповідь. Ні.

Інтернет вже кишить фальшивими акаунтами та ботами, які використовуються для тролінгу та дезінформації широкої громадськості.

Проте питання, яке задає команда дослідників з Майкрософт та Університету Бейхана в Китаї, полягає в наступному: яка шкода від використання підроблених коментарів для стимулювання та заохочення дискусій у реальних читачів новин?

Дослідники стверджують, що читачі із задоволенням публікують коментарі під новинами та діляться своїми думками. Для видавців це збільшує зацікавленість, то чому б не надати всьому цьому стимул на основі штучного інтелекту?

"Такі системи можуть дозволити послугу коментування веб-сайту новин з холодного запуску, покращити досвід читання менш коментованих статей новин та збагатити списки навичок інших програм штучного інтелекту, таких як чат-боти", - зазначає видання.

У статті пекінських дослідників представлена ​​нова техніка машинного навчання, основною метою якої є тролінг та дезінформація. Його прийнято до публікації на EMLNP, одному з 3 найкращих місць для досліджень з обробки природних мов. Cool Cool Coolhttps: //t.co/ZOcrhjKiEcpic.twitter.com/Y8U5AjENrh

- Арвінд Нараянан (@random_walker) 30 вересня 2019 р

Суть у тому, що нова стаття, випущена на arXiv, не містить жодних згадок про можливе зловмисне використання чи небезпеку, яку може створити технологія, допомагаючи поширювати фейкові новини. Кілька критиків вже висловили свою стурбованість.

Нейронні мережі для читання новин

Як Реєстр Згідно з повідомленнями, DeepCom одночасно використовує дві нейромережі: мережу зчитування та генеруючу мережу.

Усі слова в статті новин закодовані як вектори для аналізу ШІ. Мережа читання підбирає те, що вона обчислює, є найважливішими аспектами статті (особа, подія чи тема), перш ніж створююча мережа створює коментар на основі цього.

Дослідники навчали DeepCom на китайському наборі даних, що складається з мільйонів людських коментарів, розміщених у новинах в Інтернеті, а також набір даних англійською мовою зі статей на Yahoo! Новини.

Наведений вище приклад показує важливі частини a Yahoo! стаття виділена червоним кольором (мережа читання), а також те, що бот вирішив коментувати синім кольором (генеруюча мережа).

Ще один суперечливий бот

Це не перша проблема Microsoft із суперечками з ботами. Їх бота з штучного інтелекту "Тей", як відомо, довелося зняти три роки тому, після того, як він швидко навчився твітувати расистські, гомофобські та антифеміністичні повідомлення після навчання у великій базі даних твітів.

Тей, як відомо, довелося зняти лише через 16 годин через непрохані виливи ненависних твітів. Здається, що навчання ШІ онлайн-коментаторам - людям, які часто втрачають усі обмеження завдяки своїй анонімності - зрештою не є такою гарною ідеєю.

Здається, що потрібно більше роботи, перш ніж DeepCom зможе по-справжньому підбурити до участі або створити коментарі, які можуть бути використані для розладу суспільства у великих масштабах. На даний момент коментарі, створені ботом ШІ, є короткими та простими.

Однак дослідження було прийнято на міжнародну конференцію з обробки природних мов EMNLP-IJCNLP, яка відбудеться у Гонконзі наступного місяця (3-7 листопада).

Тим часом дослідники з Массачусетського технологічного інституту створюють інструмент ШІ, який називається Тестова кімната гігантських мовних моделей (GLTR), який може виявляти написаний ШІ текст. Можливо, їм доведеться почати вдосконалювати свою гру.


Перегляньте відео: 19 - Azure - Python - bot deployment #python (Червень 2022).