serge_gorshkov


Сергей Горшков - о бизнесе в сфере ИТ

о семантической интеграции, программировании, управлении...


Previous Entry Share Next Entry
Big, big data...
serge_gorshkov
Очень хороший, отрезвляющий пост о Big Data, их маркетинге и о том, что под ним скрывается: https://habrahabr.ru/post/303802/
Еще бы про Machine Learning кто-то написал подобное.

  • 1
Сергей, а вот на том же ресурсе — https://habrahabr.ru/post/301536/ — есть перевод статьи «Fizz Buzz in Tensorflow». Формально статья — введение в этот самый Tensorflow, но в ней довольно самоиронии. Если эту самоиронию возогнать и потом кристаллизовать, получится, наверное, искомый тобой текст :).

К слову, эту статью мне напомнила недавно осиленная книжка «Neural-Symbolic Cognitive Reasoning» авторства Gabbay et al., которую часто поминает Левенчук как свидетельство того, что вот, скоро грядет уже.

Книжка эта про обобщение фреймворка CILP (Connectionist Inductive Logic and Logic Programming) на разные неклассические логики. Нормальный пересказ с акцентом на модальные и интуиционистские попробую дать как-нибудь потом, ну а общие впечатления — очень уж выморочно, ad hoc, и отнюдь не ко всякому hoc применимо…

Но ещё по neural-symbolic темам повадился писать Hitzler, наверняка известный тебе деятель Semantic Web. Думаю, у него можно найти что-то разумное и близкое к твоему стеку технологий.

Edited at 2016-08-10 10:16 am (UTC)

Итак, обещанный пересказ главы про модальную логику. В ней вводится определение модальной логической программы:

Definition 29. An extended modal program is a finite set of clauses of the form ωi : β1 ∧ β2 ∧ … ∧ βn → βn+1, where ωi is a label representing a world in which the associated clause holds, β1 (1 ≤ i ≤ n) is either a literal or a modal literal, and βn+1 is either an atom or a modal atom, together with a finite set of relations R(ωi, ωj) between the worlds ωi and ωj.

For example, P = { ω1 : r → □q; ω1 : ◊s → r; ω2 : s; ω3 : q → ◊p; R(</i>ω1</i>, ω1), R(ω1, ω1) } is an extended modal program.

Потом описывается, как для этого конкретного набора формул построить нейронную сеть, которая будет вычислять эрбранову модель этой логической программы. То есть, грубо говоря, подбирать значения литералов и модальных литералов в каждом из возможных миров. Правда, нейронную сеть, построенную под конкретную формулу, придется дообучить. На мой взгляд, это неприлично: нужно или предложить универсальную архитектуру, а потом её обучать, или предлагать архитектуру под конкретный случай, но тогда не требующую дообучения.

Что еще мне в этом не нравится:

  • В приведенном определении модальной логической программы модальности можно навешивать только на атомы.
  • Вообще непонятно, как это сформулировать без использования labelled deductive systems.

[Что такое labelled deductive systems]

Это некий унифицирующий фреймворк для зоопарка неклассических логик, предложенный Габбаем.

В различных теоретико-доказательственных формулировках логических систем есть понятие вывода из посылок. При выводе посылки взаимодействуют друг с другом (и не только) и в итоге желательно аннигилируют. Габбай предлагает использовать на месте этих посылок более широкий класс записей, а не только правильно построенные формулы системы. Структура-носитель этих меток, правила взаимодействия (в том числе «аннигиляции») меток при логическом выводе и позволяют задавать те или иные логические формализмы.

Мне это вытаскивание наружу кишков системы кажется, во-впервых, дисциплинарно некорректным. Давайте тогда и в правых частях этих, с позволения сказать, секвенций будем не только правильно построенные формулы исчисления писать и окончательно похороним под теорией моделей теорию доказательств. Во-вторых, кажется гипостазированием технической семантики (этим же грешил, если помнишь, Сова).

Выбор авторами книги эпистемических модальностей, вероятно, как раз тем и обусловлен, что в этом случае возможным мирам можно предложить более-менее реалистическую интерпретацию: интерпретировать их как содержимое головных мозгов различных субъектов.

Что должна была бы уметь настоящая «connectionist modal logic», чтобы это было не смешно… Наиболее естественное желание — научить нейронную сеть определять выводимость формулы в той или иной модальной системе. Во времена написания той книги рекуррентные сети, необходимые, насколько понимаю, для обработки ввода переменной длины, уже были известны. Ну а следующий естественный шаг — средствами нейронной сети строить контрмодели для невыводимых формул. Интересно, кстати, что выдаст нейросеть, обученная строить контрмодели, получив на вход выводимую формулу. Будет ли на выходе некая tabula rasa, или изображение кукиша, или модный чип от NVidia вовсе поплавится :).



Edited at 2016-10-18 08:17 am (UTC)

Станислав, огромное спасибо за то что не забыл и написал.
Исследования в этих направлениях неожиданно приобрели для нас еще большую актуальность, о чем расскажу отдельно.
В этом тексте мне понятно далеко не все, надо разбираться. Сейчас в связи с приближающимся концом года у нас жуткая гонка, и задать тебе все вопросы не сумею; свяжусь с тобой на эту тему, когда будет физическая возможность.



  • 1
?

Log in

No account? Create an account