Пер. с англ. Дениса Шалагинова под ред. Эдварда Сержана
Опубликовано в журнале НЛО, номер 4, 2019
Лучана Паризи (преподаватель критической теории в Центре культурных исследований, содиректор Объединения цифровой культуры; PhD)
Luciana Parisi (PhD from the University of Warwick, Coventry, UK; Lecturer of the Critical Theory at the Centre for Cultural Studies, co-director of the Digital Culture Unit) l.parisi@gold.ac.uk
Ключевые слова: алгоритмический капитализм, неисчислимое, инструментальный разум, технокапитализм, произвольность
Key words: algorithmic capitalism, incomputable, instrumental reason, technocapitalism, randomness
UDC/УДК: 10.14619/014
Аннотация: Алгоритмическое познание играет ключевую роль в современном капитализме. Алгоритмы формируют новый способ мышления и контроля — от рационализации трудовых и социальных отношений до финансового сектора. В контексте перехода к этой полностью машинной фазе цифрового капитализма уже недостаточно занять сторону критической теории, которая обвиняет вычисление в редукции человеческой мысли к простым механическим операциям. Как продемонстрировал теоретик информации Грегори Хайтин, неисчислимость и случайность должны быть поняты как само условие вычисления. Если технокапитализм инфицирован вычислительной произвольностью и хаосом, традиционная критика инструментальной рациональности также должна быть поставлена под вопрос: неисчислимое не может быть просто противопоставлено разуму.
Abstract: Algorithmic reasoning plays a key role in contemporary capitalism. Algorithms are forming a new means for thought and control — from the rationalization of labor and social relationships to the financial sector. In the context of the transition to the all-machine phase of digital capitalism, it is no longer sufficient to side with critical theory, which blames calculation for the reduction of human thought to simple mechanical operations. As the information theorist Gregory Chaitin has demonstrated, incomputablity and randomness should be thought of as the very condition of calculation. If technocapitalism is contaminated by computational randomness and chaos, traditional criticism of instrumental rationality also should be questioned: the incomputable cannot be simply in opposition to reason.
В сентябрьском номере журнала «Nature» за 2013 год группа физиков из Университета Майами опубликовала статью под названием «Резкий подъем новой машинной экологии за пределами времени человеческой реакции». В этой статье авторы диагностировали переход к «новой полностью машинной (all—machine) фазе» [Johnson et al. 2013] финансовых рынков, совпадающий с появлением высокочастотной биржевой торговли после 2006 года. Они заявили, что субмиллисекундная скорость и огромное количество алгоритмических интеракций выходят за пределы человеческой способности к взаимодействию. Подробно проанализировав данные миллисекундного масштаба в ядре финансовых рынков, они обнаружили большое количество субсекундных экстремальных событий, вызванных теми алгоритмами, распространение которых они соотнесли с финансовым коллапсом 2008 года.
В этой новой цифровой торговой среде алгоритмические агенты принимают решения быстрее, чем люди способны это осмыслять. Если человеку необходима по меньшей мере одна полная секунда для того, чтобы распознать потенциальную опасность и отреагировать на нее, то алгоритмы или боты способны принимать решения в миллисекундном порядке. Эти алгоритмы образуют «сложную экологию высокоспециализированных, предельно диверсифицированных и плотно взаимодействующих агентов» [Farmer, Skouras 2011], которые оперируют на пределе равновесия, вне человеческих контроля и понимания.
Аргумент, который я разрабатываю здесь, принимает эту цифровую экологию высокочастотных торговых алгоритмов за отправную точку. Таким образом, мой текст нацелен не столько на конкретный анализ сложной финансовой экологии, сколько на обсуждение самой критики автоматизированного познания в эпоху алгоритмического капитализма. Ибо если финансовая торговля является примером цифровой автоматизации, все менее зависимой от человеческого понимания, то эта система стала второй природой. Поэтому сегодня представляется своевременным задаться вопросом: каковы отношения между критическим мышлением и этими цифровыми экологиями?
Мой вопрос таков: может ли критика инструментального разума — в том виде, в каком она предложена критической теорией, — продолжать опираться на различение критического мышления и автоматизации? Можно ли всерьез утверждать, что алгоритмическая автоматизация всегда уже является статичной редукцией критического мышления? Отвечая на эти вопросы, нельзя упускать из виду очевидную дилемму: философское мышление, равно как и дигитальность, основывается на принципах недетерминированности и неопределенности, воплощая эти принципы в своих центральных теориях сложности. Парадоксальным образом, обе они одновременно бросают вызов неолиберальному порядку и определяют его.
Чтобы рассмотреть этот парадокс, я обращусь к понятию неисчислимости (incomputability), разработанному компьютерным ученым Грегори Хайтином, который внес вклад в область алгоритмической теории информации своим открытием числа Омега. Это число обладает специфическим свойством: оно определимо, но неисчислимо. Иначе говоря, Омега определяет сразу и дискретное, и бесконечное состояние исчисления, занимая пространство между нулем и единицей. С философской точки зрения открытие числа Омега указывает на процесс определения неопределенности, включающий не априорную структуру рассуждения, но — что важнее — динамическую обработку бесконечностей, в которых результаты не содержатся в логических предпосылках системы.
На мой взгляд, центральное место неисчислимого в теории информации ставит под вопрос не только философскую критику технической рационализации, но также инструментализацию разума. Таким образом, в нижеследующем тексте я утверждаю, что уже недостаточно занять критическую позицию по отношению к технонауке, исходя из того, что вычисление сводит человеческую мысль к простым механическим операциям. Вместо этого парадокс между философским реализмом и реализмом технокапиталистическим может быть считан как симптом необратимого преобразования в истории критической мысли, которое состоит в том, что неисчислимая функция разума вступила в автоматизированную инфраструктуру познания.
Алгоритмы когнитивного и аффективного капитала
Говорят, что капитал вошел во все сферы личной и общественной жизни. Прежде чем обратиться к вопросу о неисчислимом в алгоритмической автоматизации, важно отметить, что с наступлением так называемой технокапиталистической фазы реального подчинения цифровая автоматизация пришла в соответствие с когнитивным и аффективным капиталом. При этом логика цифровой автоматизации проникла в сферы аффектов и чувств, лингвистических компетенций, в способы сотрудничества, формы познания, а также проявления желания. Более того, говорят, что сама человеческая мысль стала функцией капитала. Наше современное объяснение этого нового состояния в терминах «социального капитала», «культурного капитала» и «человеческого капитала» отсылает к тому, что знание, человеческий интеллект, убеждения и желания обладают лишь инструментальной ценностью и фактически являются источником прибавочной стоимости. В этом автоматизированном режиме аффективной и когнитивной деятельности способности измеряются и подсчитываются в общем поле, определяемом как деньгами, так и информацией. Кроме того, путем сбора данных и количественной оценки поступков, взглядов и убеждений неолиберальный мир финансовых деривативов и больших данных осуществляет расчеты, необходимые для оценки человеческих действий, и поддерживает механизм стимуляции и ориентации этих действий.
Парадоксально, но во времена, когда «нематериальный труд» превалирует над материальным производством [Хардт, Негри 2004], а маркетинг имеет все больше дела с такими аффективными товарами, как настроения, стили жизни и «атмосферы» [Biehl-Missal 2012], капиталистический реализм, кажется, достигает предельного выражения [Фишер 2010], опираясь на выводы когнитивной психологии и философии сознания. Центральное место здесь занимают пластичность нервной структуры, а также расширение когнитивных функций — от восприятия к способности выбирать и судить — посредством основанных на алгоритмах машин. Несложно заметить, что сегодня социальный мозг — не что иное, как машинная экология алгоритмических агентов.
Другой аспект затронут в подходе Стиглера к технокапиталу. Исследователь позиционирует мышление и чувствование как новые моторы извлечения прибыли, подавленные и захваченные капиталом, преобразованные в простые когнитивные и сенсорные функции [Stiegler 2014a; 2014b]. Иными словами, технокапитал является тем, что отрицает желание и знание, разум и чувство. Он сводит эти потенциальности к простым вероятностям, которые определяются бинарным языком «да» и «нет», нуля и единицы. Проводя эту линию дальше, Лаццарато [Lazzarato 2012] утверждает, что критика технокапитала не может фокусироваться ни на капитализации познания, ни на его автоматизации. В «Сотворении должника» Лаццарато заявляет, что знание не обладает гегемонией над циклом стоимости, потому что знание (а значит, и мысль) изначально подчинено запросу финансового капитала. Здесь неолиберальная форма капитала на его нынешней стадии реального подчинения отсылает к производству нового состояния — генерализованного долга. Эта форма неолиберального управления проникла во все классы — даже в те, что ничем не владеют. Следовательно, наиболее распространенное властное отношение на сегодняшний день — это связка должника и кредитора. Долг — это технология управления, поддерживаемая автоматизированным аппаратом измерения и оценки (кредитные отчеты, оценка имущества, базы данных и т.д.). Лаццарато трактует этот аксиоматический режим в терминах семиотической логики, чья основная научная парадигма и технологические приложения всегда уже функционируют, чтобы захватить (путем квантификации в стоимости) первичные эстетические потенциалы.
С этой точки зрения автоматизация является семиотической логикой par excellence, которая не просто инвестирует труд и его когнитивные и аффективные способности, но обретает свою специфику в становлении формой управления, оперирующей алгоритмами, чтобы свести все существование к общей форме долга. Эта алгоритмическая форма управления также открывает путь к диффузной финансиализации потенциальностей, посредством чего эстетическая жизнь постоянно квантифицируется и сводится к предсказуемым сценариям.
Не только Лаццарато, но также и Массуми [Massumi 2007] обратил внимание на диффузные экологические свойства этой новой формы алгоритмического управления, которую он описывает в терминах упреждения (pre—emption), режима калькуляции потенциальных тенденций вместо существующих возможностей. Исчисление потенциальностей, описывающее этот динамизм, больше не основывается на настоящих или прошлых данных. Вместо этого оно ориентировано на калькуляцию неизвестного — как реляционного пространства — посредством измерения интервала между одними существующими данными и другими. Фактически эта форма упреждающего исчисления трансформирует предельную точку калькуляции — бесконечности — в источник извлечения прибыли.
Исходя из этого, можно предположить следующее: вопреки логике формального подчинения, которая соотносится с применением неизменного набора правил, чья линейность направлена на форматирование социального согласно предзаданным идеям, логика реального подчинения совпадает с интерактивной вычислительной парадигмой. Эта парадигма основана на восприимчивости к обучению, открытости и адаптации, которая определяют как взаимодействие человека и машины, так и функционирование распределенных интерактивных систем. С расширением квантификации вплоть до средовой неопределенности — и, тем самым, контингентности — внутренняя трансформация логики исчисления становится свершившимся фактом. Действительно, развитие подобного интерактивного подхода играет решающую роль в доминирующей сегодня форме реального подчинения.
Исторически интерактивные алгоритмы были изобретены, чтобы обойти алгоритмические ограничения машины Тьюринга. Концепт этой машины предполагал недостаточность, неспособность справиться со сложностью эмпирического мира, — сложностью, которая, если выразиться по-философски, обладает собственной нерепрезентативной логикой. В этом контексте наступление реального подчинения не может быть отделено от возникновения динамической формы автоматизации, обусловившей историческое развитие компьютерной науки начиная с алгоритмического моделирования Тьюринга. В то время предложенная Тьюрингом концептуализация механизма, базирующегося на априорных инструкциях, в значительной степени перекликалась с пониманием механизма в кибернетике первого порядка (закрытая система обратной связи). Сегодня комбинация средовых вводных данных и апостериорных инструкций, предложенная интерактивной парадигмой, отсылает к кибернетике второго порядка с ее открытыми механизмами обратной связи. Цель этой новой динамической интеракции состоит в том, чтобы включить в автоматизацию вариацию и новизну, дабы увеличить горизонт исчисления, а также включить в вычислительный механизм качественные факторы как внешние переменные.
Вопреки критике Лаццарато, представляется важным избежать обобщения, исходя из которого автоматизация всегда уже является технокапиталистической редукцией экзистенциальных качеств. Задача, скорее, в том, чтобы обратиться к внутренней трансформации автоматизированной формы неолиберального управления и вплотную заняться вопросом технического. Но вместо того чтобы утверждать, что техническое — это всегда уже статичная формальная рамка, ограниченная бинарной логикой, я предположу, что система калькуляции обладает собственной внутренней динамикой. Если это так, то необходимо обратиться к реальной возможности спекулятивного вопроса, который, согласно Изабель Стенгерс [Stengers 2010; 2011], является центральным для научного метода: что, если автоматизация уже демонстрирует, что существует внутренне присущее процессу исчисления динамическое отношение между вводными данными и алгоритмическими инструкциями, включая нелинейную обработку данных? Что, если эта динамика не поддается простому объяснению в терминах ее апостериорного использования, т.е. после того, как она либо использована социально, либо обработана ментально?
Интерактивная парадигма связана со способностью алгоритмов реагировать на внешние вводные данные и адаптироваться к ним. Как предвидел еще Делёз [Делёз 2004], интерактивная система обучения и постоянной адаптации лежит в основе логики управления, которая приводится в действие изменчивой сетью непрерывной вариации. Здесь центральность капитализма в обществе заставляет аксиоматику открыться для внешних вводных данных, формирующих среду агентов, через которых логика капиталистического управления все больше соответствует мгновенным инвестициям в социус, а в пределе — жизненным вариациям. Вопрос о неразрешимой пропозиции (undecidable proposition) важен, поскольку он определяет имманентный, а не трансцендентный взгляд на капитал, как напоминают нам Делёз и Гваттари [Делёз, Гваттари 2010]. Дело обстоит так, поскольку расширение капитала до пределов жизни требует от своих аппаратов захвата быть открытыми случайностям, вариациям и непредсказуемым изменениям.
Именно здесь необходимо внимательнее исследовать организационную мощность вычисления, чтобы прояснить изменение, которое претерпела автоматизация в результате перехода капитала от формального подчинения к реальному. Интерактивная автоматизация когнитивной и аффективной деятельности должна быть исследована заново. Как в случае с критической концепцией когнитивного капитала, так и в случае с критическим взглядом на автоматизированное управление, основанное на общем долге, мы рискуем упустить из виду то, что можно считать самым радикальным процессом становления интеллекта искусственным (artificialization), когда-либо имевшим место в человеческой истории; он включает преобразование органических целей в технические средства, и последствия этого преобразования нам еще предстоит раскрыть.
Хотя мои соображения по этому поводу все еще пребывают на ранней стадии, я хочу рассмотреть возможность теоретизирования того, что алгоритмическая автоматизация возвещает реализацию второй природы, в которой бесцельный и безличный режим мышления имеет тенденцию к вытеснению телеологической конечности разума, вторящей кантианской концепции разума в терминах мотива — т.е. причины действия, — которая обосновывает различие между пониманием и разумом. Речь также идет о тезисе, который — что более важно — ориентирован на то, чтобы бросить вызов теории, согласно которой существует взаимосвязь или неразрешимая пропозиция между философией и технологией, так же как между мыслью и капиталом. Вместо идеи о том, что убежище для мысли и философии от все более динамичного технокапитализма лежит в окончательном обращении к интеллектуальной интуиции и аффективной мысли как безопасным анклавам чистой неопределенности и сингулярности, я хочу исследовать возможность того, что алгоритмическая автоматизация — как основанная на правилах мысль — способна быть безразличной ко всем этим слишком человеческим качествам, в то же время активно охватывая их без репрезентации философской или критической мысли. Это тезис о появлении алгоритмического способа мышления, который не может быть скован телеологической конечностью разума, характерной как для технокапитализма, так и для его критики.
Эксперимент Тьюринга и число Омега
Как известно, алгоритмическая автоматизация предполагает разложение континуальных процессов на дискретные компоненты, функции которых могут постоянно безошибочно повторяться. Вкратце, автоматизация означает, что исходные условия могут воспроизводиться до бесконечности. Форма автоматизации, с которой мы здесь имеем дело, возникла вместе с машиной Тьюринга: абсолютным механизмом итерации, основанным на пошаговых процедурах. Нет ничего, что в большей степени противоречило бы чистой мысли — или «бытию чувственным», как выразился Делёз [Делёз 1998: 92], — чем эта основанная на дискретности машина универсальной калькуляции. Разработанная Тьюрингом архитектура заранее подготовленных блоков, которые остаются взаимозаменяемыми на протяжении всей последовательности, фактически противоположна онтогенетической мысли, движущейся через дифференциальный континуум, сквозь интенсивные встречи и аффект.
Тем не менее с 1960-х годов характер автоматизации претерпел кардинальные изменения в результате наращивания способности к хранению и обработке данных. Предыдущие автоматизированные машины были ограничены количеством данных обратной связи. Теперь алгоритмическая автоматизация способна обеспечить анализ и сопоставление опций, осуществление возможных сценариев или результатов (outcomes) и выполнение базовых рассуждений в ходе решения проблем через последовательность шагов, которые не содержались в программной памяти аппарата. Например, экспертные системы делают выводы с помощью методов поиска, сопоставления образцов и извлечения данных из сети (web), и сегодня эти сложные автоматизированные системы доминируют в нашей повседневной культуре — от глобальных сетей мобильной телефонии до умного банкинга и управления воздушным движением.
Несмотря на такое развитие, сегодня многие дебаты об алгоритмической автоматизации все еще отсылают к дискретной вычислительной машине Тьюринга. Предполагается, что алгоритмическая автоматизация — это очередной пример взгляда Лапласа на вселенную, которая определяется детерминистской причинностью (см.: [Longo 2000; 2007]). Но в вычислительной теории калькуляция случайности или бесконечностей сегодня превратила то, что было обозначено как неисчислимости, в новую форму вероятностей, которые одновременно дискретны и бесконечны. Иными словами, если под алгоритмической автоматизацией понимается принципиально дискретная универсальная машина Тьюринга, то сегодня увеличение объема неисчислимых данных (случайностей) в сети, распределительное и интерактивное вычисление указывают на то, что бесконечные бессистемные (patternless) данные играют ключевую роль в процессе вычислительной обработки. Чтобы оценить нынешнюю роль неисчислимых алгоритмов в вычислении, необходимо обратиться к логику Курту Гёделю, который бросил вызов аксиоматическому методу чистого разума, доказав существование неразрешимых пропозиций в рамках самой логики.
В 1931 году Гёдель поставил под вопрос метаматематическую программу Гильберта. Он показал, что не может существовать ни полный аксиоматический метод, ни чистая математическая формула, с помощью которых действительность того или иного положения вещей могла бы быть доказана или опровергнута (см.: [Gödel 1995]). Теоремы Гёделя о неполноте объясняют, что пропозиции верны, даже если они не могут быть верифицированы посредством полного аксиоматического метода. Тем самым пропозиции в конечном счете оказываются неразрешимыми: они не могут быть доказаны с помощью аксиоматического метода, на основании которого они были выдвинуты в качестве гипотез. По Гёделю, проблема неполноты, возникшая из попытки продемонстрировать абсолютную эффективность чистого разума и его дедуктивного метода, вместо этого приводит к следующему: никакое априорное решение и, таким образом, завершенный набор правил не могут быть использованы для определения положения вещей прежде, чем вещи пойдут своим чередом.
Тьюринг столкнулся с гёделевской проблемой неполноты при попытке формализовать концепты алгоритма и вычисления с помощью своего знаменитого мысленного эксперимента, ныне известного как машина Тьюринга. В частности, машина Тьюринга демонстрирует, что задачи поддаются вычислению, если они могут быть решены с помощью аксиоматического метода. И наоборот, те пропозиции, с которыми не может справиться аксиоматический метод, останутся неисчислимыми.
Доказав, что некоторые частные функции не могут быть вычислены такой гипотетической машиной, Тьюринг продемонстрировал, что не существует окончательного метода решения в том виде, в котором его хотел найти Гильберт. Сила пропозиции Тьюринга в том, что его мысленный эксперимент предложил жизнеспособную формализацию механической процедуры. Вместо перемалывания цифр вычислительные машины Тьюринга — и, фактически, современные цифровые машины, которые из них развились, — могут решать проблемы, принимать решения и выполнять задачи; единственное условие состоит в том, что эти проблемы, решения и задачи должны быть формализованы с помощью символов и набора дискретных и конечных последовательных шагов. В этом отношении усилие Тьюринга можно рассматривать как решающий шаг в длинной серии подвижек по направлению к механизации разума.
Однако более важно то, как предел вычисления и тем самым телеологической конечности разума — автоматизированного в машине Тьюринга — трансформировался в компьютерную науку и теорию информации. В этом смысле работы математика Грегори Хайтина [Chaitin 2004; 2006; 2007] оказываются особенно симптоматичными, поскольку объясняют, что поставлено на карту, когда речь идет о пределах вычисления и развитии динамической формы автоматизации. Различие между этой трансформацией и основополагающей для технокапитализма интерактивной парадигмой имеет решающее значение. Эта парадигма, порожденная необходимостью включения средовых случайностей в вычисление, ориентирована преимущественно на предвосхищение и упреждающий ответ. Вместо этого — что более важно для меня и моего тезиса об алгоритмической автоматизации как способе мышления — речь идет о серьезном отношении к той роли, которую неисчислимые данные играют в вычислении. Чтобы прояснить этот момент, мне придется рассмотреть теорию Хайтина более подробно.
В своей алгоритмической теории информации Хайтин комбинирует вопрос Тьюринга о пределе исчислимости с информационной теорией Шеннона, которая демонстрирует продуктивность шума и случайности в коммуникативных системах, для того чтобы рассмотреть вычисление в терминах максимально неизвестных вероятностей. Он объясняет, что в любом вычислительном процессе данные на выходе (output) всегда превышают вводные данные (input). По Хайтину, нечто происходит в ходе вычислительной обработки данных — то, что бросает вызов эквивалентности между вводными данными и данными на выходе и, таким образом, самой идее о том, что обработка всегда ведет к уже запрограммированному результату. Это нечто, согласно Хайтину, является алгоритмической произвольностью. Понятие алгоритмической произвольности означает, что информация не может быть сжата в меньшей программе, поскольку между вводом и выходом происходит энтропическая трансформация данных, которая выражается в тенденции к увеличению их размера. С этой точки зрения выход обработанных данных не соответствует введенным инструкциям, а их объем фактически имеет тенденцию становиться больше, чем в начале вычисления. Открытие алгоритмической произвольности в процессе вычисления было объяснено Хайтином в терминах неисчислимого: увеличивающихся, но остающихся неизвестными количеств данных, характеризующих обработку, основанную на правилах.
Хайтин называет эту алгоритмическую произвольность Омегой (последняя буква греческого алфавита отсылает к вероятности того, что это число бесконечно). Фактически, осуществленное Хайтином исследование неисчислимого позволило обнаружить, что линейный порядок последовательных процедур (а именно он конституирует вычислительную обработку единиц и нулей) демонстрирует энтропическую тенденцию к добавлению данных к существующему блоку инструкций, установленному в качестве вводных данных. Поскольку обработка неизбежно включает не только трансформацию существующих данных в новые вводные данные, но и добавление новых данных поверх того, что было предустановленно в вычислительной процедуре, появляется возможность говорить о внутренней динамике исчисления.
С этой точки зрения вычислительная обработка — в первую очередь — не обеспечивает возвращения к исходным условиям, как не включает она и простого изменения, выводимого из интерактивной парадигмы, основанной на адаптивных данных на выходе. Это объясняется тем, что предложенная Хайтином концепция неисчислимости уже не вполне соответствует понятию предела исчислимости (т.е. пределу того, что поддается калькуляции). Вместо этого предел как неисчислимое трансформируется: он становится добавлением новых и максимально неизвестных алгоритмических частей к имеющему место курсу вычислительной обработки; эти части являются алгоритмическими последовательностями, тяготеющими к тому, чтобы увеличиваться в объеме по сравнению с запрограммированной инструкцией и занимать ее место, тем самым необратимо преобразуя заданный конечный набор правил. Осуществленная Хайтином реартикуляция неисчислимого является одновременно удивительной и спекулятивно продуктивной. То, что Тьюринг считал внешним пределом исчисления (т.е. неисчислимым), теперь оказалось перенесенным внутрь последовательной расстановки алгоритмов (произвольность работает внутри алгоритмических процедур).
По собственному признанию Хайтина, алгоритмическую произвольность следует понимать в качестве развития попытки Тьюринга справиться с неопределенностью в исчислении. Если для Тьюринга существуют случаи, когда конечность не может быть достигнута и, таким образом, исчисление — как автоматизация конечности разума — останавливается там, где начинается неисчислимое, то для Хайтина исчисление как таковое обладает внутренним резервом неисчислимости, поскольку правила всегда инфицированы неотделимой от них произвольностью. Следовательно, неисчислимость — это не просто разрыв с разумом, но, скорее, расширение разума за его пределы с тем, чтобы включить в обработку данных максимально неизвестные части, не предполагающие телеологической конечности. Другими словами, автоматизация теперь отличается неисчислимым — безусловным исчисления. Важно, однако, что это подрывает позицию, согласно которой вычислительная обработка соответствует калькуляции, ведущей к запрограммированным и заранее известным данным на выходе. Вместо этого пределы автоматизации — т.е. неисчислимое — становятся отправной точкой динамизма, внутренне присущего исчислению, которое выходит за пределы плана технокапиталистической инструментализации разума. Исходя из этого, соотнесение открытия Хайтина с позиционированием критической мысли и технокапитализма позволяет обнаружить новый аспект: неисчислимое не может быть понято как нечто противопоставленное разуму. Другими словами, оно не является выражением цели разума и не может быть объяснено исходя из критического взгляда, который утверждает первичность аффективной мысли.
Согласно Хайтину, неисчислимое выявляет недостатки механического подхода к исчислению, который отождествляет хаос и произвольность с ошибками в формальной логике калькуляции. Но неисчислимое не описывает ситуацию, в которой провал познаваемости противопоставляется триумфу неисчислимого, — напротив. Эти пределы предполагают более тонкую возможность динамической реальности познания, определенной способностями неисчислимых бесконечностей или произвольностей к заражению любого исчислимого или дискретного множества. Другими словами, произвольность (или бесконечные вариации бесконечностей) не является внешней по отношению к исчислению, но радикальным образом становится его абсолютным условием. И, становясь частично познаваемым в алгоритмическом числе, которое Хайтин назвал «Омега», произвольность также проникает в вычислительный порядок и провоцирует необратимую ревизию алгоритмических правил и их телеологической конечности. Именно эта новая возможность неопределенной ревизии правил, осуществляемая за счет включения произвольности в вычисление, открывает динамику внутри автоматизированной системы и автоматизированной мысли. Это означает следующее: хотя открытие Хайтином числа Омега демонстрирует, что произвольность стала познаваемой внутри исчисления, неисчислимое, однако, не может быть синтезировано априорной программой или набором процедур, которые уступают ему в размере. Согласно Хайтину, Омега соответствует дискретным состояниям, которые сами по себе скомпонованы из бесконечных реальных чисел, которые не могут содержаться в конечных аксиомах.
Интересно здесь то, что число Омега Хайтина одновременно является умопостигаемым и все же не синтезируемым универсалиями или субъектом. Я предполагаю, что вычисление — как механизация мысли — внутренне заполнено (populated) неисчислимыми данными; дискретные правила открыты форме контингентности, внутренне присущей процессу алгоритмической обработки. Это следует понимать не как простую ошибку в системе или сбой в структуре кода, но, скорее, как часть исчисления. Вместо того чтобы отвергать исчисление как злое воплощение технокапиталистической инструментализации разума, мы осознаем, что неисчислимые алгоритмы появляются, чтобы бросить вызов не только превосходству телеологической конечности разума, но и чувственной и аффективной мысли.
Спекулятивное вычисление
Было бы неправильно принимать тезис о том, что неисчислимости определяют динамическую форму автоматизации, с наивным энтузиазмом. Напротив, обращаясь к алгоритмической автоматизации, важно не упускать из виду тот факт, что исчисление бесконечности, несмотря ни на что, является центральным для капитализации познавательных способностей — даже в их автоматизированной форме. Мое настойчивое утверждение, что неисчислимости не являются исключительно теми нерепрезентативными бесконечностями, что принадлежат к сфере бытия чувственным, в действительности продиктовано беспокойством из-за онтологической и эпистемологической трансформации мысли с точки зрения алгоритмической функции разума. Неисчислимости выражаются аффективными способностями к производству новой мысли, но важнее то, что они вскрывают динамическую природу познаваемого. Здесь меня волнует не обращение к предельно исчислимому бытию, определяющему истину и мысль. Напротив, я обратилась к открытому Хайтином числу Омега, потому что оно радикальным образом отменяет аксиоматическое основание истины, показывая, что исчисление неотделимо от неполноты, открыто для пересмотра исходных условий и, таким образом, трансформации истин и конечности. Поскольку Омега является одновременно дискретной и бесконечной вероятностью, оно свидетельствует о том факте, что исходные условия симуляции, основанные на дискретных шагах, являются и могут быть бесконечными. Короче говоря, неисчислимые алгоритмы, обнаруженные Хайтином, предполагают, что сложность реальных чисел подрывает обоснование разума в конечной аксиоматике и телеологии.
Эта точка зрения подталкивает к развертыванию нескольких мыслей. Я согласна, что интерактивная парадигма технокапитализма уже указывает на полудинамическую форму автоматизации, которая порабощает когнитивные и аффективные способности и устанавливает финансовое управление, основанное на долге. Но кроме этого, все еще остаются дополнительные вопросы, которые касаются значимости алгоритмов.
Если мы рискуем утратить четкую оппозицию между дигитальностью и философией [Galloway 2013], что и как нам делать с алгоритмами? На данный момент я хочу указать на то, что алгоритмы, эта динамическая форма разума, основанная на правилах и все же открытая изменениям, не определяются телеологической конечностью, поскольку безличные функции всякий раз трансформируют такую конечность. Это нельзя воспринимать как простую замену или расширение когнитивных функций человека. Моя точка зрения, напротив, состоит в том, что мы наблюдаем конфигурацию неисчислимого способа мышления, который не может быть синтезирован в тотализующую теорию или программу. Тем не менее эта мысль разоблачает ошибочность той философии и критической мысли, которая бы сводила исчисление к второсортной механизации разума, предназначенной для простой итерации и неспособной менять свои окончательные направления.
Моя аргументация здесь была в основном сосредоточена на критике исчисления как воплощения технокапиталистической инструментализации разума. Это была попытка предположить, что алгоритмическая автоматизация, возможно, совпадает со способом мышления, в котором неисчислимое и произвольное становятся умопостигаемыми, калькулируемыми, но не обязательно поддающимися технокапиталистической тотализации. Несмотря на инструментализацию разума во имя капитализма, несмотря на репрессивное форматирование знания и желания в количества, такие как задачи, функции, цели, в самом исчислении, безусловно, остается непоследовательность. Дело в том, что увеличение калькуляции приводит к росту произвольности (бессистемной информации), и здесь кроются трансформативные возможности основанных на правилах функций. В фазовом переходе от алгоритма к алгоритму, который наиболее известным образом описывает финансовую торговлю, упомянутую в начале моего эссе, сложно отрицать возможность того, что автоматизация мысли вышла за пределы репрезентации и сделала очевидным тот факт, что само исчисление стало динамичным.
В заключение я бы хотела добавить: динамическая автоматизация не может быть полностью объяснена в терминах фармакологического отношения между философией и технологией, знанием и капиталом, или условным (conditional) ядом, который допускает взаимную обратимость, определяемую общим основанием, как полагает Стиглер [Stiegler 2014a; 2014b]. Аналогичным образом следует признать, что динамические тенденции в самом сердце алгоритмической автоматизации нельзя просто свести к технокапиталистической логике семиотической организации, как заявил Лаццарато [Lazzarato 2012], или к эксплуатации/подавлению когнитивно-креативных функций мысли.
Вызов, который автоматизированное познание бросает постгуманистической перспективе — в которой мысль и технология сливаются воедино под влиянием технокапитализма, — отсылает к возникновению нового чужеземного образа мысли (new alien mode of thought), способного менять свои исходные условия и ставить цели, несоразмерные с конечностью органической мысли. Это также означает, что фазовый переход от алгоритма к алгоритму не просто остается очередным примером технокапиталистической инструментализации разума, но более тонко раскрывает реализацию второй природы в форме бесцельного автоматизированного интеллекта. Если алгоритмическая автоматизация отсылает уже не к выполнению инструкций, а к установлению машинной экологии, инфицированной произвольностью, тогда следует предположить, что ни технокапитализм, ни критика технокапитализма не могут сдержать тенденцию автоматизированной обработки беспорядочных данных к преодолению аксиоматических истин.
Пер. с англ. Дениса Шалагинова под ред. Эдварда Сержана
Библиография / References
[Делёз 1998] — Делёз Ж. Различие и повторение / Пер. с франц. Н.Б. Маньковской, Э.П. Юровской. СПб.: Петрополис, 1998.
(Deleuze G. Difference et repétition. Saint Petersburg, 1998. — In Russ.)
[Делёз 2004] — Делёз Ж. Переговоры 1972—1990 / Пер. с франц. В.Ю. Быстрова. СПб.: Наука, 2004.
(Deleuze G. Pourparlers 1972—1990. Saint Petersburg, 2004. — In Russ.)
[Делёз, Гваттари 2010] — Делёз Ж., Гваттари Ф. Тысяча плато: капитализм и шизофрения / Пер. с франц. Я.И. Свирского. Екатеринбург.: У-Фактория; М.: Астрель, 2010.
(Deleuze G., Guattari F. Mille plateaux: Capitalisme et schizophrénie. Ekaterinburg; Moscow, 2010. — In Russ.)
[Фишер 2010] — Фишер М. Капиталистический реализм. Альтернативы нет? / Пер. с англ. Д. Кралечкина. М.: Ультракультура 2.0, 2010.
(Fisher M. Capitalist Realism: Is There no Alternative? Moscow, 2010. — In Russ.)
[Хардт, Негри 2004] — Хардт М., Негри А. Империя / Пер. с англ. И. Данилина и др. М.: Праксис, 2004.
(Hardt M., Negri A. Empire. Moscow, 2004. — In Russ.)
[Biehl-Missal 2012] — Biehl-Missal B. Atmospheres of Seduction: A Critique of Aesthetic Marketing Practices // Journal of Macromarketing. 2012. № 32 (2). P. 168—180.
[Chaitin 2004] — Chaitin G. 2004. Leibniz, Randomness & the Halting Probability // Mathematics Today. 2004. № 40 (4). P. 138—139.
[Chaitin 2006] — Chaitin G. The Limits of Reason // Scientific American. 2006. № 294 (3). P. 74—81.
[Chaitin 2007] — Chaitin G. The Halting Probability Omega: Irreducible Complexity in Pure Mathematics // Milan Journal of Mathematics. 2007. № 75 (1). P. 291—304.
[Davis 2000] — Davis M. The Universal Computer. The Road from Leibniz to Turing. London: Norton and Company, 2000.
[Farmer, Skouras, 2011] — Farmer D., Skouras S. An Ecological Perspective on the Future of Computer Trading. The Future of Computer Trading in Financial Markets // UK Foresight Driver Review 6. London: Government Office for Science (http://www.gov.uk/government/uploads/system/uploads/attachment_data/file/289018/11-1225-dr6-ecologic….
[Galloway 2013] — Galloway A. The Poverty of Philosophy: Realism and Post-Fordism // Critical Inquiry. 2013. № 39 (2). P. 347—366.
[Gödel 1995] — Gödel K. Some Basic Theorems on the Foundations of Mathematics and their Implications // Collected Works of Kurt Gödel. Vol. 3 / Ed. by S. Feferman et al. Oxford: Oxford University Press, 1995. P. 304—323.
[Johnson et al. 2013] — Johnson N., Zhao G., Hunsader E., Qi H., Johnson N., Meng J., Tivnan B. Abrupt Rise of New Machine Ecology beyond Human Response Time // Scientific Reports. 2013. № 3 (September 11) (doi:10.1038/srep02627).
[Lazzarato 2012] — Lazzarato M. The Making of the Indebted Man. Los Angeles: Semiotext(e), 2012.
[Longo 2000] — Longo G. The Difference between Clocks and Turing Machines // Functional Models of Cognition. Self-Organizing Dynamics and Semantic Structures in Cognitive Systems / Ed. by A. Carsetti. Dordrecht: Springer, 2000. P. 211—232.
[Longo 2007] — Longo G. Laplace, Turing and the “Imitation Game” Impossible Geometry: Randomness, Determinism and Programs in Turing’s Test // The Turing Test Sourcebook / Ed. by R. Epstein, G. Roberts, G. Beber. Dordrecht: Kluwer, 2007. P. 377—413.
[Massumi 2007] — Massumi B. Potential Politics and the Primacy of Preemption // Theory & Event. 2007. № 10 (2).
[Stengers 2010] — Stengers I. Cosmopolitics 1. Minneapolis: University of Minnesota Press, 2010.
[Stengers 2011] — Stengers I. Cosmopolitics 2. Minneapolis: University of Minnesota Press, 2011.
[Stiegler 2014а] — Stiegler B. States of Shock: Stupidity and Knowledge in the 21st Century. Cambridge: Polity Press, 2014.
[Stiegler 2014b] — Stiegler B. The Lost Spirit of Capitalism: Disbelief and Discredit, 3. Cambridge: Polity Press, 2014.
[Turing 1936] — Turing A. On Computable Numbers, with an Application to the Entscheidungsproblem // Proceedings of the London Mathematical Society. 1936. Series 2. Vol. 42. P. 230—265.
[1] Перевод с английского выполнен по изданию: Parisi L. Instrumental Reason, Algorithmic Capitalism, and the Incomputable // Alleys of Your Mind: Augmented Intellligence and Its Traumas / Ed. by Matteo Pasquinelli. Lüneburg: Meson Press, 2015. P. 125—137.