DeFi
Гонка вооружений ИИ бьет по торговым алгоритмам хедж-фондов Quant

Гонка вооружений ИИ бьет по торговым алгоритмам хедж-фондов Quant

Гонка вооружений ИИ бьет по торговым алгоритмам хедж-фондов Quant

Синтетическая пропаганда, созданная искусственным интеллектом, бросает вызов тому, как фирмы, занимающиеся квантовой торговлей, оценивают достоверность новостей.

Картина очевидного взрыва в Пентагоне заставила S & P 500 пошатнуться на 0,3% за 30 минут и предупредила торговые компании о том, что их инструменты агрегирования новостей нуждаются в доработке.

Высокоскоростные фирмы изо всех сил пытаются сдержать последствия глубоких подделок

В то время как алгоритмы торговых фирм с возрастающей вероятностью фильтруют дезинформацию, ландшафт угроз превращается в игру в кошки-мышки с высокими ставками, решения для которой в ближайшей перспективе ожидают немногие.

Специалист по обработке данных RavenPack Питер Хафез говорит, что у фирм есть две насущные проблемы.

“Мы видим, что quants сталкиваются с двумя препятствиями: поддельными изображениями, которые могут обмануть журналиста, и сообщениями о поддельных изображениях, которые обманывают сам алгоритм”.

Масштабная борьба с глубокими подделками, вероятно, потребует значительных технологических вложений, чтобы ослабить торговый хаос, особенно для высокоскоростных торговых фирм, которые приносят прибыль клиентам за счет незначительных различий в ценах на финансовые инструменты.

Тем временем некоторые компании обращаются к источникам данных, которые объединяют новости из разных источников в оценку настроений.

Другие компании торгуют, используя тренды, а не резкие колебания цен, обусловленные социальными сетями и текущими новостями. Компании также меняют алгоритмы для перекрестной проверки источников на достоверность.

Дезинформация процветает за счет потребления данных

В недавнем докладе ООН описано, как сговор частного и государственного секторов может стимулировать кампании дезинформации для достижения политических или финансовых целей.

Отчет специально предупредил общественность о том, как подделки, созданные искусственным интеллектом, могут вызвать гражданские беспорядки.

По данным Лаборатории медиа-криминалистики Университета Буффало, для создания глубокой подделки требуется всего около 500 изображений или десять секунд видео.

Однако в MIT Technology Review утверждается, что преобладающее мнение заключается в том, что ИИ лучше работает с большим количеством данных. В модели OpenAI GPT-2 использовалось 40 гигабайт, в то время как GPT-3 — 570 ГБ.

Фирма не раскрыла, какой объем данных использует ее модель GPT-4. Больше данных потенциально может генерировать более реалистичные глубокие подделки. Недавний законопроект Европейского союза требует от компаний раскрывать источники данных, которые их алгоритмы ИИ используют для создания контента.

Криминалистическая лаборатория Buffalo обнаруживает подделки, определяя ненормальные движения глаз. С другой стороны, инструмент Intel FakeCatcher может оценивать визуальный контент на предмет подлинного кровотока человека.

 

Гонка вооружений ИИ бьет по торговым алгоритмам хедж-фондов Quant

Гонка вооружений ИИ бьет по торговым алгоритмам хедж-фондов Quant

Источник

Добавить комментарий