Как лошадь

Марина Сапир: литературный дневник

Читаю "Посмертные записки пиквикского клуба" на английском. В детстве читала на русском - было очень смешно. Еще удивлялась, почему Диккенс написал одно такое смешное произведение из всех. Оказывается, это смешно только местами. Я подозреваю, что русский перевод - сокращенная версия произведения. "Записки" не так уж отличаются по стилю и смыслу от остального Диккенса.


В одной из первых сцен Пиквик едет куда-то на экипаже. Он спрашивает возницу: "Сколько лет лошади?" Тот говорит: 42 года. Рассказывает, что они ее почти не отпрягают. Если выпрячь, она падает. А в упряжке ей упасть некуда. Кроме того, за ней бегут два быстрых колеса, которые ее подталкивают, и ей ничего не остается, кроме как бежать.


Моя новая статья здесь:
https://arxiv.org/pdf/2501.01836


Вот абстракт:


Based on limited observations, machine learning discerns a dependence which
is expected to hold in the future. What makes it possible? Statistical learning
theory imagines indefinitely increasing training sample to justify its
approach. In reality, there is no infinite time or even infinite general
population for learning. Here I argue that practical machine learning is based
on an implicit assumption that underlying dependence is relatively ``smooth" :
likely, there are no abrupt differences in feedback between cases with close
data points. From this point of view learning shall involve selection of the
hypothesis ``smoothly" approximating the training set. I formalize this as
Practical learning paradigm. The paradigm includes terminology and rules for
description of learners. Popular learners (local smoothing, k-NN, decision
trees, Naive Bayes, SVM for classification and for regression) are shown here
to be implementations of this paradigm.




Другие статьи в литературном дневнике: