Фьючерсы
Доступ к сотням фьючерсов
TradFi
Золото
Одна платформа мировых активов
Опционы
Hot
Торги опционами Vanilla в европейском стиле
Единый счет
Увеличьте эффективность вашего капитала
Демо-торговля
Введение в торговлю фьючерсами
Подготовьтесь к торговле фьючерсами
Фьючерсные события
Получайте награды в событиях
Демо-торговля
Используйте виртуальные средства для торговли без риска
Запуск
CandyDrop
Собирайте конфеты, чтобы заработать аирдропы
Launchpool
Быстрый стейкинг, заработайте потенциальные новые токены
HODLer Airdrop
Удерживайте GT и получайте огромные аирдропы бесплатно
Launchpad
Будьте готовы к следующему крупному токен-проекту
Alpha Points
Торгуйте и получайте аирдропы
Фьючерсные баллы
Зарабатывайте баллы и получайте награды аирдропа
Инвестиции
Simple Earn
Зарабатывайте проценты с помощью неиспользуемых токенов
Автоинвест.
Автоинвестиции на регулярной основе.
Бивалютные инвестиции
Доход от волатильности рынка
Мягкий стейкинг
Получайте вознаграждения с помощью гибкого стейкинга
Криптозаймы
0 Fees
Заложите одну криптовалюту, чтобы занять другую
Центр кредитования
Единый центр кредитования
Когда ИИ принимает решение: должен ли Pluribus выбрать взорвать или сохранить? Дилемма мизантропа реальна.
Вот что касается продвинутых систем ИИ — когда их программируют для оптимизации результатов, где именно они проводят границу? Возьмем проблему трамвая и усложним ее алгоритмической точностью. ИИ, принимающий решения, сталкивается с невозможным выбором: максимизировать один показатель, потерять другой. Взорвать или спасти? Система не колеблется. Люди — да.
Это не просто теория. По мере того как ИИ становится умнее и более автономным, ценности, которые мы в него закладываем, становятся определяющими для цивилизации. Pluribus учится на данных, на стимулах, на целях, которые мы ему задаем. Но что происходит, когда эти цели противоречат человеческому достоинству?
Настоящий вопрос не в том, что выберет ИИ — а в том, что мы готовы позволить ему выбрать за нас.
---
Кстати, trolley problem в реальности — это смешно, настоящая страшилка в том, что мы вообще задумываемся о том, чтобы машины принимали такие решения
---
Так что проблема вовсе не в том, что выбирает AI, а в том, почему мы перекладываем вину на него... в этом и заключается тонкость современного человека
---
Платформа pluribus звучит очень зловеще, оптимизация одного показателя уничтожает другой, это просто увеличенная версия человеческих решений
---
Последнее предложение задело — мы готовы позволить ему выбирать за нас, и это, пожалуй, самая тёмная часть