Энтропия и её применение на фондовом рынке

Знакомство

Существует интересная связь между движением финансовых рынков и движением пыли. Вы правильно прочитали: пыль — эти крошечные частицы, плавающие вокруг и вызывающие множество проблем с аллергией. Вы, вероятно, уже видели частицы, сияющие в луче света, и вы, вероятно, также заметили, что движение этих маленьких частиц

Она совершенно случайна, а это значит, что если бы вы могли внимательно следить за траекторией только одной пылинки, вы бы заметили, что ее направление постоянно меняется, и нет никакой возможности заранее определить ее траекторию. Случайная флуктуация частиц в воздухе называется броуновским движением, названным в честь шотландского ботаника Роберта Брауна. Несмотря на то, что Роберт Браун открыл это явление в 1827 году, только 70 лет спустя ученые заинтересовались этим явлением и начали разрабатывать сложные математические модели для описания броуновского движения.

Эти молекулы воздуха движутся с огромной скоростью и постоянно ударяются о частицы пыли, немного меняя свое направление. Решение этой задачи обеспечивает, пожалуй, самая важная теорема современной статистики — центральная предельная теорема. Теперь, не вдаваясь в математические подробности, центральная предельная теорема гласит примерно следующее: если свойство описывается кумулятивным эффектом многих случайных величин, то это свойство, конечно, само по себе случайно, но по своей случайности оно следует очень известной статистике.

Если вы когда-нибудь задумывались об инвестировании в фондовый рынок, вы, вероятно, уже знаете, что не существует уравнения или алгоритма, чтобы предсказать, как именно будет развиваться цена акций в будущем, ни через год, ни завтра, ни даже в ближайшую минуту, в конце концов, иначе и быть не может. Подумайте об этом — если бы цены на акции показывали четкую закономерность, то инвесторы находили бы эту закономерность и использовали бы ее для зарабатывания денег, но таким образом, они бы снова устранили эту закономерность, экономики говорят, что закономерности на фондовом рынке исчезают в результате эффективного конкурентного рынка. Несмотря на то, что эволюция цены акций является неровной и непредсказуемой, именно описание этого неровного пути лежит в основе инвестиционной теории.

Метод количественной оценки этой неровной траектории заключается в прекрасной корреляции фондовых рынков с этими крошечными частицами пыли, и сегодня мы собираемся исследовать эти корреляции через призму энтропии.

Чтобы понять энтропию, в этом блоге мы рассмотрим три подхода;

  1. Наивное объяснение энтропии с использованием математического ожидания и элемента неожиданности в вероятностях.
  2. Корреляция энтропии, о которой мы говорим здесь, и частиц пыли во введении, термодинамическая и буквальная энтропия.
  3. Наконец, мы поймем энтропию в терминах цифровых сигналов.

Ожидаемые значения:

Попробуем разобраться в математическом ожидании с помощью простой аналогии.

Предположим, что в городе проживает 1000 человек, из которых 200 человек грамотны. Следует отметить, что ни один человек в городе не является частично грамотным — люди делятся на две взаимоисключающие категории — грамотные и неграмотные.

Если это так, то можно смело заключить, что вероятность случайного выбора грамотного человека равна 0,2, а его дополнение равно 0,8.

Предположим, что два статистика (статистик А и статистик Б) отдыхают на курорте в черте города. Курорт заполнен 100 жителями города, и никаких внешних посетителей нет.

Статистик А предлагает пари — если он встретит грамотного человека, А должен заплатить Б 1000 долларов. Если они встретят неграмотного человека, Б должен заплатить А 10 долларов.

Должен ли Б принять эту ставку?
Что ж, обнаружить, что Б делает важное допущение. Он предполагает, что, хотя Комбинация курорта может быть любой
( 10 л; 90 л ) ( 5 л; 95 I ) ( 100 L ; 0 I ) — ожидается, что, поскольку на курорте проживают жители города, их число должно совпадать с процентом грамотности города — то есть, курорт не предлагает предвзятости и вычерпывает членов, как правило, из своей родительской группы — города. ( 20 л ; 80 л )

Перемножая параметры, он может сделать вывод, хорошая это сделка или плохая сделка. Если действительная вероятность встретить грамотного гражданина равна 0,2, и если вероятность сбрасывается с каждым прибывающим гражданином и ни один гражданин не проверяется дважды, то В сделал наилучшее допущение — гребень биномиального распределения.

Это прекрасно коррелирует с тем, что называется предвзятостью игрока, которая является когнитивным искажением, которое развивается у людей из-за «уравновешивающей природы мира». Точно так же, как вероятность выпадения орла не увеличивается, если вы получаете пять решки подряд — потому что вероятность сбрасывается с каждым подбрасыванием, и монета не помнит, что было раньше, — вероятность встретить случайного неграмотного человека остается равной 0,8, сколько когда-либо грамотных людей встретит Б, — но лучше всего ожидать, что она будет распределена между 20 L и 80 I.

Это тонкое различие, которое скрывается в понятии энтропии — контекст имеет значение, а время измерения имеет значение.

Ожидания определяются только до того, как произойдет событие. По мере того, как происходят события, вероятность сбрасывается с каждым входящим измерением.

Наивное объяснение энтропии с помощью специальной функции неожиданности и математических ожиданий

Предположим, что статистики определяют специальную функцию неожиданности, которая количественно оценивает удивление, связанное с нахождением неграмотного/грамотного гражданина.

Интуитивно мы можем понять, что эта функция будет обратно пропорциональна вероятности наступления этого события — мы будем более удивлены, если произойдет менее вероятное событие.

Несмотря на то, что мы можем определить эту функцию по-разному — здесь мы можем отклониться от многих принципов, давайте рассмотрим, что происходит, когда мы определяем ее как 1/log p, где p — вероятность этого события

Это означает, что ожидаемое значение сюрприза будет сообщать мне о сюрпризе, полученном за эксперимент. Этот сюрприз называется энтропией — чем больше сюрприз, тем больше беспорядок в системе, тем больше энтропия.

До поры до времени два упомянутых термина рассматривались как разные сущности. Тем не менее, Джеймс Кларк Максвелл в конечном итоге объединил идею термодинамической энтропии с теми, которые мы собираемся использовать для моделирования фондового рынка.

Демон Максвелла: историческая справка

Подобно коту Шредингера, демон Максвелла циркулирует в культурном воображении более мощно, чем реальный мысленный эксперимент, который он первоначально означал. Детище Джеймса Клерка Максвелла в 1867 году, то, что мы называем «демоном Максвелла», пережило более века технологических преобразований и остается верным концепции «энтропии». Однако то, что именно это означает, является сложным и отличается от его викторианского происхождения.

Здесь мы рассмотрим рождение и эволюцию Демона Максвелла в двух разделах:

(1) закладка научного фундамента для «Демона Максвелла»

(2) последующее обсуждение того, что энтропия означает для базовой теории информации.

Второй закон термодинамики накладывает ограничение направленности на передачу энергии. Она гласит, что в замкнутой системе количество доступной энергии движется вниз по градиенту от доступности к диффузности. Вот почему для того, чтобы привести замкнутую систему в более высокий уровень порядка, требуется внешнее вложение энергии; Или, рассматривая Вселенную как замкнутую систему, можно сказать, что Вселенная естественным образом дрейфует в сторону состояния холодного, не требующего работы равновесия, или «тепловой смерти».

По этой же причине ваш кофе не будет самопроизвольно разогреваться, и почему вечные двигатели (т.е. получающие работу даром) не могут существовать.

Стрела времени неотделима от таких процессов — проще говоря, вы не можете обратить их вспять, не проделав некоторую работу.

Однако Максвелл провел уникальный мысленный эксперимент, который изменил наше понимание энтропии; как просто параметр, который должен быть вычислен в соответствии с концепцией, глубоко укоренившейся в статистике.

Демон Максвелла: Что это было?

Если мы представим себе существо (демона, как назвал его Максвелл), чьи способности настолько обострены, что она может следовать за каждой молекулой на своем пути.

Пусть ее поместить в сосуд, разделенный на две части, А и В, с одной стороны, пусть будут высокотемпературные молекулы (белые), а с другой стороны, пусть будут низкотемпературные молекулы. ( желтый )

Демон может видеть отдельные молекулы — открывает и закрывает это отверстие без трения без каких-либо усилий, позволяя только более быстрым молекулам проходить из А в Б и только более медленным — из Б в А.

Таким образом, она без затрат труда повысит температуру В и понизит температуру А, что противоречит второму закону термодинамики.

Как это возможно?

Это противоречие долгое время озадачивало ученых, но переосмысление понятия энтропии действительно помогло им решить эту проблему.

Это переосмысление в области теории информации было сделано Беннеттом Ч. в 1987 году, когда он работал в IBM.

Чтобы понять, почему информация может быть связана с энтропией, рассмотрим текст, который упоминается в этом коллаже изображений.

Мы собираемся понять это с помощью шахматной доски 4х4 и объекта.

Данный объект может покоиться на любом из 16 местоположений, и мы также будем считать, что каждое из этих мест с равной вероятностью встречается.

Давайте предположим, что мяч волшебным образом появляется в любой из 16 коробок, и применим наши ограничения к этому волшебному внешнему виду.

Обратите внимание, что мы можем пометить блоки как 0 и 1 и прекрасно понять, где наш объект может находиться в макросостоянии.

Таким образом, нам нужен всего один бит, чтобы описать положение объекта в микросостоянии.

Обозначьте все четыре поля как 00,01,10,11 соответственно.

Предположим, что мы наняли другого демона Максвелла, который знает местоположение объекта на каждой итерации, чтобы перенести объект, независимо от его положения, на красный квадрат.

До влияния Демона Максвелла:

После влияния Максвелла Демона:

Предположим, что то же самое действие выполняется с макросостоянием B

Ответ на этот вопрос отрицательный, потому что мы не учли энтропию информации в памяти демона.

Хотя мы сами не знаем положения шара, мы знаем, что демон должен был наблюдать за этой информацией, чтобы выполнить эту задачу.

Таким образом, если мы рассмотрим всю систему, демона и доску вместе, мы заметим, что, хотя энтропия доски уменьшилась, энтропия в голове демона увеличилась. И эти эффекты компенсируют друг друга.

Это связано с тем, что память демона будет удерживать начальное положение шара на доске, которое было необходимо для выполнения задачи, в виде комбинаций из четырех возможных битов.

Теперь вернемся к исходному примеру;

Таким образом, принцип термодинамической и физической энтропии взаимозаменяемы.

Поскольку мы говорим о корреляции в термодинамике и теории информации, мы можем прийти к той же формуле, рассматриваяэнтропию, возникающую при смешивании идеальной смеси.

Здесь R — универсальная газовая постоянная, а «yi» — мольная доля растворенного вещества в растворителе.

Мольная доля в некотором смысле представляет собой вероятность нахождения растворенной частицы на моль в случайном беспорядке раствора и, следовательно, энтропию, возникающую при смешивании подсчетов с нашими результатами, упомянутыми выше.

Мы пришли к выводу, что энтропия, в конце концов, всего лишь информация.

Энтропия как цифровые сигналы

Представьте себе, что мы находимся по одну сторону стены, и происходит случайное событие, взятое из некоторого случайного распределения вероятностей. Мы можем наблюдать исход этого события, но человек по другую сторону стены не может этого сделать.

Наша цель состоит в том, чтобы сообщить человеку на другой стороне о результате, отправив только сигнал — n битное число по каналу. Заметьте, что экспериментаторы по обе стороны стены могут договориться о некоторой функции отображения до того, как информация будет передана.

Например; Предположим, что случайным событием является подбрасывание монеты, в этом распределении вероятностей есть только два равновероятных исхода орел и решка, 0 может отображать орла и 1 может отображать решку.

Наблюдая за исходом события, мы можем послать соответствующий сигнал через стену, и человек на другой стороне мгновенно поймет, что это было за наблюдение.

Таким образом, пусть энтропия (определяемая как количество битов, которое требуется в сигнале) в данной ситуации равна 1

Это определение в высшей степени интуитивно понятно, так как чем больше беспорядок в конкретной системе, тем больше будет количество битов, необходимых для строгого определения системы.

Предположим, что есть международный турнир, в котором вероятность победы в турнире делится между 8 командами, которые одинаково сильны.

Чтобы узнать, какая команда победила, мы можем использовать три бита для кодирования информации и, таким образом, передать информацию о том, какая команда выиграла матч, с помощью простой карты данных 1-1 с командами.

Здесь энтропия равна 3 единицам.

Если у нас есть M равновероятных исходов, то энтропия будет log 2 M единиц.

Это можно увидеть, если есть N исходов, таких, что N имеет вид, 2 возводится в К, где K — некое натуральное число.

Но эта гипотеза справедлива даже для всех натуральных М.

Предположим, что M равно 10, 4 бита могут кодировать 16 состояний, так что технически мы можем иметь энтропию 4 и кодировать все данные.

Это, к сожалению, ужасно неэффективно, так как 6 штатов остаются ненанесенными на карту.

Таким образом, мы передадим 1 событие и потеряем 6 состояний

В попытке добиться большего, мы могли бы использовать 10 бит, которые могли бы помочь нам закодировать 3 результата одновременно. В результате у нас останется 24 неиспользованных кода; 3 события и отходы 24 штата.

Наиболее эффективное сопоставление будет существовать, когда..

Таким образом, для события M равновероятная система:

Это и есть формула энтропии Шеннона.

Энтропия Шеннона — это мера количества информации в системе. Чем больше значение энтропии Шеннона, тем больше информации нужно людям для понимания этой системы.

Таким образом, мы пришли к энтропии Шеннона различными путями. Давайте теперь изучим его применение

Применение энтропии на фондовом рынке

Экономист Маасуми использовал метрическую энтропию для определения предсказуемости фондового рынка и обнаружил, что по сравнению с традиционными методами прогнозирования, метрическая энтропия может охватывать больше нелинейных зависимостей.

Исследования показали, что энтропия отрицательно связана с прогнозированием цены акций, это навязчиво, так как чем меньше случайность, тем больше определенность.

Энтропия как мера волатильности

Волатильность часто используется для описания дисперсии от ожидаемого значения, цены или модели. Он относится к колебаниям на фондовом рынке. Обычно его измеряют с помощью стандартного отклонения.

Исследования доказали, что мы получаем лучшие результаты, когда используем энтропию.

Основные преимущества энтропии по сравнению со стандартным отклонением можно резюмировать следующим образом:

(i) он включает в себя гораздо больше информации, чем последний

(ii) оно не зависит от какого-либо конкретного распределения; Другими словами, он свободен от распределения, что позволяет избежать внесения ошибок за счет подгонки распределения возвратов к нормальному распределению.

Измеренная волатильность (A) и структурная энтропия (B) для FTSE100. Измеренная волатильность © и структурная энтропия (D) для NIKKEI225).

Энтропия в выборе портфеля

Диверсификация портфеля — это один из методов балансировки риска и прибыли в вашем инвестиционном портфеле. Диверсификация — это стратегия распределения ваших инвестиций по нескольким классам активов таким образом, чтобы ваша подверженность какому-либо одному типу активов была минимальной.

Поскольку энтропия является хорошо известной мерой разнообразия, многие ученые применяют ее к выбору портфеля. Филиппатос и Вильсон предложили концепцию индивидуальной, совместной и условной энтропии.

Они вывели энтропию одного индексного портфеля из приведенных выше концепций.

Риск портфеля может быть минимизирован за счет минимизации:

Заключение

Мы подошли к концу этого утомительного, но прекрасного путешествия по пониманию энтропии и ее применению.

Энтропия является более эффективным способом количественной оценки риска, если мы больше разберемся в том, как реализовать ее в будущем.

Библиография

https://www.google.com/search?q=entropy+in+the+stock+market&source=lmns&bih=954&biw=1919&hl=en&sa=X&ved=2ahUKEwilgO3y3MiEAxVScWwGHcYOBiUQ0pQJKAB6BAgBEAI

https://www.investopedia.com/terms/e/entropy.asp

https://medium.com/superalgos/entropy-as-ahttps://www.investopedia.com/terms/e/entropy.asp-calculation-basis-for-market-trend-highlighting-advanced-trend-indicator-9569111e3b0a

https://www.mdpi.com/1099-4300/23/5/568

https://www.mdpi.com/1099-4300/23/5/568

Источник