Порядок в хаосе. Владимир Мордашев
Чтение книги онлайн.
Читать онлайн книгу Порядок в хаосе - Владимир Мордашев страница
Ее праведность, терпение, оптимизм и мужество были мне опорой и маяком.
ВМЕСТО ПРОЛОГА
Если я не могу это изобразить, то я не могу этого и понять
Одним из препятствий на пути познания Мира являются трудности визуализации многомерных данных об этом Мире и их закономерностей. В этом эссе – размышления, как преодолевать их.
АРИСТОТЕЛЬ
Древнегреческие философы считали, что главное средство познания Природы – размышление, помощник – наблюдение. Первый, кто попытался привести в порядок мысли человека, наблюдавшего окружающие его явления природы, был Аристотель (384–322 до н. э.).
По Аристотелю, познание начинается с удивления, а истина есть соответствие знания действительности. Аристотель набросал начала индуктивного и дедуктивного методов,
Рассматривая индуктивный метод, в котором от частного переходят к общему, Аристотель делал вывод о несовершенстве такого метода, полагая, что дедуктивный метод, в котором частное выводят из общего, обеспечивает более достоверное знание.
ЭМПИРИЗМ И РАЦИОНАЛИЗМ
В первой половине 17 века философия получения знаний разделилась на две ветви: эмпиризм и рационализм, появившиеся почти одновременно (по историческим меркам).
ЭМПИРИЗМ | РАЦИОНАЛИЗМ |
Основатель – Френсис Бэкон | Основатель – Рене Декарт |
(1561–1626), Англия | (1596–1650), Франция |
Критерий истины – опыт | Критерий истины – разум |
Проверка истинности – в эксперименте | Проверка истинности – не требуется, истина самоочевидна |
Идеал знания – естественные науки – физика, химия | Идеал знания – точные науки– математика, логика |
Путь познания – индукция – рас- суждение от частного к общему | Путь познания – дедукция – рас- суждение от общего к частному |
ЭМПИРИЗМ
Объектом познания, по Бэкону, выступает природа. Истинное знание – это знание причин. Основа познания – опыт. Познавательный процесс, исходя из метода Бэкона, в первую очередь должен признать «реальное существование отдельных, чувственно воспринимаемых вещей. Отдельная вещь – это сложная вещь. Для того, чтобы ее познать, ее надо разложить на простейшие элементы (свойства) и от познания этих простых элементов идти в познанию вещи в целом. Такой метод познания предcтавляет собой индукцию, восхождение от простого к сложному. Причем индукция включает в себя анализ (разложение на части) и синтез (объединение частей в целое)». Таким образом, главным методом развития науки Ф. Бэкон считал индукцию, опирающуюся на опыт, полученный в результате наблюдения, сравнения, эксперимента и анализа.
ОСНОВНОЙ ИНФОРМАЦИОННЫЙ КАНАЛ – ЗРЕНИЕ
Мы – существа зрительные, а наш мозг всегда дорисовывает то, что мы видим. Мозг не только дорисовывает, но и домысливает и обобщает. Основную информацию о внешнем мире мы получаем через зрение (около 90 %), около 9 % – через слух, на остальные органы чувств приходится всего 1 %. Зрение же позволяет видеть только трехмерные объекты. Следовательно, воспринимать визуально графическое отображение опытных данных и описывать их зависимости геометрически мы можем только тогда, когда они зависят не более, чем от двух переменных факторов.
Для описания наблюдений используется аппроксимация – метод, состоящий в замене одних объектов другими, в каком-то смысле близкими к исходным, но более простыми. Основная задача аппроксимации, в классической ее постановке, формулируется следующим образом [1]: «На некотором точечном множестве M в пространстве произвольного числа измерений заданы две функции: φ(P) (например, экспериментальные данные) и F(P; A1, А2, …, An) (например, гипотеза) от точки P принадлежащей множеству M, из которых вторая зависит еще от некоторого числа параметров A1, A2, …, An; эти параметры требуется определить так, чтобы уклонение в M функции F(P; A1, А2, …, An) от функции φ(P) было наименьшим. При этом, конечно, должно быть указано, что понимается под уклонением F от φ». Критерием приемлемости аппроксимации служит полученное уклонение (чаще всего стандартная – среднеквадратичная ошибка).
Современные вычислительные методы и ЭВМ позволяют почти всегда решать эту задачу аппроксимации при практически произвольных наборе исходных данных (значений φ(P)) и мере уклонения