HTCinside


Індійський політик за допомогою ШІ переклав свою промову на іншу мову

У той час як новітні технології впроваджуються в повсякденне життя людей, щоб полегшити життя, схоже, що політики думають про те, як використовувати їх, щоб задовольнити свої вимоги, коли мова йде про політику та вибори.

Нещодавно Манодж Тіварі, індійський політик, був у новинах за те, що використав штучний інтелект, щоб створити враження, що він говорить те, чого насправді не говорив. Було помічено, як він розмовляв рідною індійською мовою хар’янві, діалектом хінді, який відрізнявся від англійської версії, якою було знято відео.

Відповідальна за це фірма The Ideaz Factory пояснила, що відео було створено для «позитивної» кампанії місцевої правлячої партії Bharatiya Janata Party, до якої належить Тіварі. Цього вдалося досягти за допомогою технології deepfake.

Deepfake - це поєднання слів Deep learning і feke. Це використання технології глибокого навчання для створення фейкових відео. Це глибоке навчання поєднується з іншими потужними інструментами, такими як машинне навчання та штучний інтелект. Застосовуване машинне навчання передбачає навчання архітектур нейронних мереж, таких як автокодери та генеративні змагальні мережі.

Ця технологія здатна змусити людину на відео робити те, чого вона спочатку не робила, наприклад поводитися певним чином, говорити щось або бути повністю заміненим кимось іншим. Це досягається за допомогою згаданих інструментів, таким чином маніпулюючи глядачем.

Про те, як було знято відео з Тіварі в головній ролі, Сагар Вішної, який працює з The Ideaz Factory, уточнює: «Ми використали алгоритм deepfake «синхронізації губ» і навчили його за допомогою промов Маноджа Тіварі, щоб переводити аудіозвуки в основні форми рота». Це дозволило Тіварі розширити свій вплив на громаду Хар’янві та досягти бази виборців, чого він не міг би зробити інакше.

Хоча дипфейки не є поширеним явищем у політичному потоці, це не вперше. Відео 2018 року з тодішнім президентом США Бараком Обамою викликало занепокоєння щодо того, як фальшиві відео можуть виставлятися напоказ як справжні відео в політичній сфері. Зайве говорити, що це спонукало політичних і технічних аналітиків до обговорення того, що технологія може зробити для політики країни, а також різні способи, якими вона може впливати на вибори, навіть не маючи на увазі.

Читати –Технологію виявлення емоцій слід заборонити, каже AI Now

Сполучені Штати швидко відреагували, коли Комітет з етики Палати представників США поінформував членів, що це буде вважатися порушенням правил Палати представників, якщо хтось із членів опублікує таке глибоке фейкове відео. Каліфорнія, з іншого боку, вже прийняла закон, який забороняє розповсюдження глибоких фейків політиків протягом 60 днів після виборів. Twitter, Facebook і Reddit також оновили свою політику боротьби з глибокими фейками на відповідних платформах.

Deepfakes вже має гарну репутацію використання в порнографічних відео зі знаменитостями, фейкових новинах, містифікаціях і багатьох подібних шкідливих відео. Однак ще невідомо, як дипфейки захоплять медіа-споживання в тому вигляді, в якому ми його знаємо, і як законодавство вирішить морально сірі зони, які обов’язково виникнуть у зв’язку з такими ЗМІ.