OpenAI, компания, подарившая миру ChatGPT, теперь решила попробовать себя в роли законодательного лоббиста. В штате Иллинойс гигант AI активно продвигает законопроект SB 3444. Суть его проста: освободить разработчиков самых передовых AI-систем от ответственности за масштабный ущерб, будь то гибель людей или убытки на миллиард долларов. Это уже не робкая оборонительная позиция, а прямой переход к проактивному строительству законодательного 'щита', призванного оградить AI-пионеров от реальных последствий их потенциально опасных творений.
Законопроект позволит разработчикам 'прорывных' AI-моделей избежать юридических последствий, даже если их технологии причинят 'критические вреды'. Условием будет лишь отсутствие прямого умысла или грубой неосторожности со стороны разработчика, а также формальная публикация отчетов о безопасности. Под 'прорывной моделью' понимается система, обученная с использованием вычислительных мощностей на сумму свыше 100 миллионов долларов. В списке потенциальных бенефициаров, очевидно, значатся OpenAI, Google, xAI, Anthropic и Meta. Если AI-модель совершит действия, которые для человека квалифицировались бы как уголовное преступление и привели бы к катастрофическим последствиям, разработчик, по сути, останется чист, если формально выполнит требования.
Джейми Райс (Jamie Radice) из OpenAI уверяет, что их поддержка таких мер якобы направлена на снижение рисков серьезного вреда от передовых систем, одновременно позволяя технологии быстрее попасть в руки пользователей и бизнеса. Кейтлин Нидермайер (Caitlin Niedermeyer) из отдела глобальных отношений вторит коллегам: попытки отдельных штатов регулировать AI создают излишнее трение, которое 'не улучшает безопасность'. Оба представителя OpenAI активно выступали в поддержку SB 3444. Их аргументация читается как попытка убедить пожарных, что вместо тушения возгорания лучше запастись гидрантами, но не спешить с борьбой с огнем.
Почему это важно для бизнеса: Этот шаг OpenAI — прямой сигнал о неготовности AI-гигантов нести реальную ответственность за потенциальные катастрофы, порождаемые их же технологиями. Принятие подобного закона в Иллинойсе может задать опасный отраслевой стандарт, ослабляя стимулы к разработке действительно безопасных систем и увеличивая риски для бизнеса и общества. По сути, это легализация гонки вооружений в AI с минимальными последствиями для тех, кто её разгоняет. Такое законодательство перекладывает страхование рисков на общество, взамен предоставляя компаниям свободу действий. Для CEO это означает, что они должны быть готовы к ситуации, когда поставщики передовых AI-решений могут быть не готовы разделить ответственность за возможные сбои или непредсказуемое поведение систем, которые они внедряют.