- Наука и техника

ИИ не сможет защитить нас от дипфейков, утверждает новый доклад

Новый доклад Data and Society ставит под сомнение автоматизированные решения для распознавания видео, созданных с помощью машинного обучения. Авторы исследования — Бритт Пэрис и Джоан Донован — утверждают, что дипфейки, хотя и кажутся относительно новым явлением, на самом деле являются частью долгой истории манипулирования средствами массовой информации.

Чтобы изменить ситуацию, необходимы как социальные, так и технические усовершенствования. Доверие к ИИ, по их мнению, может на самом деле усугубить ситуацию, сконцентрировав больше данных и мощности в руках частных корпораций.

«Отношения между СМИ и правдой никогда не были стабильными, — говорится в отчете. — В 1850-х годах, когда суды начали принимать фото в качестве доказательства, люди не доверяли новой технологии и предпочитали свидетельские и письменные показания. К 1990-м годам медиа-компании были замешаны в искажении событий и избирательной редактуре вечерних трансляций».

Видеоподделки, как указывают исследователи, существовали задолго до появления дипфейков. Так, способность манипулировать видеодоказательствами была продемонстрирована в 1991 году во время судебного разбирательства в отношении четырех полицейских из Лос-Анджелеса за избиение Родни Кинга за сопротивление полиции. Одним из основных доказательств невиновности полицейских было видео, снятое прохожим. Демонстрация видео присяжным с замедлением в несколько раз показала, что непроизвольные физические реакции Кинга на удары выглядели так, как будто он пытался встать.

«Сегодня технологи спешат бороться с проблемой с помощью исключительно технических решений, включая автоматическое распознавание манипуляций с видео с использованием ИИ. Однако нахождение подделок в истории позволяет нам увидеть, что то, что считается «доказательством», может только навредить».

проблема дипфейков, уверены исследователи, может решиться только сочетанием технических и социальных методов, включая снижения влияния медиасистем на общественность.

«Более комплексные решения могут заключаться в принятии правительственных мер в отношении корпораций, чтобы побудить их более осмысленно подходить к последствиям их разработок», — уверены авторы доклада.

Кроме того, как указано в докладе, в настоящее время в США на стадии разработки находятся четыре законопроекта, касающихся дипфейков. Если их примут, подобные видео обяжут маркировать — для явного указания, что это фейк, и определения создателей. Это позволит правительству налагать штрафы на лиц, распространяющих вредный контент, созданный с использованием ИИ, считают авторы исследования.

Бобби Чесни, соавтор статьи «Дипфейки: надвигающаяся проблема конфиденциальности», уверен, что остановить распространение дипфейков возможно, а вот уничтожить их — нет.

«Мы должны говорить о смягчении и ограничении вреда, а не не о полном устранении этой проблемы, — добавил Чесни. — Дипфейки не исчезнут».

Источник

Добавить комментарий

Ваш e-mail не будет опубликован. Обязательные поля помечены *