Головна Новини Суспільство Скандали "Це не мій голос", - Тищенко заявив про фейкову інформатаку
commentss НОВИНИ Всі новини

"Це не мій голос", - Тищенко заявив про фейкову інформатаку

Нардеп Микола Тищенко відреагував на висвітлену у ЗМІ інформацію щодо його заробітку на колл-центрах

24 серпня 2023, 19:47
Поділіться публікацією:

Записи телефонних розмов, на яких людина з голосом, подібним до голосу нардепу від партії Слуга Народу Миколи Тищенка, відверто вимагає мільйони доларів за власну протекцію для незаконних кол-центрів, були розтиражовані провідними медіа країни та телеграм-каналами з мільйонними аудиторіями.

"Це не мій голос", - Тищенко заявив про фейкову інформатаку

Микола Тищенко відреагував на інформацію щодо його озаробітку на кол-центрах

Сам народний депутат відреагував так: "Це голос – не мій і таких переговорів ніколи не було".

Також Тищенко додав, що подібний на його голос в аудиозаписах був згенерований нейромережею, а шахрайством в кол-центрах займаються технічно підковані молоді люди, які вміють користуватися нейромережами.

Треба зазначити, що технології відтворення голосу, який було б дуже важко відрізнити від голосу справжньої людини, дійсно існують. Наприклад, це вдалося дослідникам з компанії Microsoft. Але це – одна з найсвіжіших розробок, тож код нової моделі штучного інтелекту Vall-E вони ретельно приховують та заявляють, що AI недоступний для громадськості та використовується лише для дослідницьких цілей. Окрім того, розробники запевняють, що завжди є можливість перевірити чи голос справжній.

"Оскільки VALL-E може синтезувати мову, яка зберігає ідентичність мовця, це може нести потенційні ризики у неправильному використанні моделі, наприклад, підробити голосову ідентифікацію або видати себе за конкретного мовця. Щоб зменшити такі ризики, можна побудувати модель виявлення для розрізнення чи аудіокліп був синтезований VALL-E. Ми також застосуємо принципи Microsoft AI на практиці під час подальшої розробки моделей", — зазначають розробники компанії Microsoft.

Таким чином, поки що нейронні моделі не здатні передавати емоції в голосі, робити паузи, імітувати "мичання", або характерні для людей звуки між фразами, такі як протяжне "е", або "а", що може бути доказом справжності розміщених в мережі інтернет аудиозаписів людини з голосом, подібним до голосу депутата Миколи Тищенка.

Нагадаємо, що в мережі інтернет з'явився аудиозапис розмови людини з голосом, схожим на голос Миколи Тищенка, яка домовляється про отримання неправомірної вигоди за сприяння роботі кол-центрів. 



Читайте Comments.ua в Google News
Якщо ви знайшли помилку, будь ласка, виділіть фрагмент тексту і натисніть Ctrl+Enter.

Новини