>Объем реактора - грубо говоря несколько кубических метров. Подчитайте объем рассматриваемого поверхностного слоя земного шара и вероятность, что при сотне испытаний вы попадете в реактор.
Понятно. А нет ли способа повысить чувствительность аппаратуры? Кроме того, не понятно, что требуется от статистики? Что за отправной набор измерений? Вы пишете о трудностях с получением измерений, но ведь если получен соответствующий набор данных, то его дальнейшее препарирование не вызывает проблем - в зависимости от поставленной задачи. Быть может, в этом эксперименте само определение события неудачное?
Допустим, Вы наковыряли нужные данные. Какие могут быть проблемы для их дальнейшей статистической обработки?
>Далее, учтите, что количество псевдослучайных чисел в датчиках ограничено длинной слова. Вы, кстати, знаете как это реализовано на практике?
Что именно? Случайные числа на ЭВМ? Эксперимент? Эксперимент я только примерно представляю.
>А вы что, не уверены?
Если у Вас вырожденное распределение, то далеко на нём не уедешь.
>Ну, во-первых, не совсем точка. А во вторых, откуда вы знаете, что исследуемое на практике распределение не является близким к вырожденному?
Очень просто: Var[x(t)] -> 0 при увеличении t
>Проверки, что данного количества испытаний достаточно для утверждения что реализуется именно данное статистическое распределение.
Дело тут вот в чём: в большинстве статистических применений Вас интересует прежде всего сходимость Вашей оценки параметров к их истинному значению. Большинство методов (вроде регресии МНК) базируются на ряде допущений, например, нарушения в модель (y = E(x'b|I) ) не обладают серийной корреляцией, второй момент постоянен и т.д, короче, "белый шум". Частным случаем белого шума будет распределение по закону Гаусса. Так вот, нарушение этого допущения покрывается использованием методов, нечувствительнных к этой проблеме, либо немного более изощренными методами оценки параметров (зависит от проблемы). Сюда же относятся все динамические модели. К этому добавляется также то, что на практике часто используется метод наибольшего правдоподобия (maximum likelihood), который, хоть и требует явного задания закона распределения нарушений, не подвержен значительному влиянию в условии других законов.
Т.е. на практике Вы редко заботитесь законом распределения нарушений, если речь не идёт о специфических приложениях.
>Вот. А мне трубуются миллиарды, а лучше десятки миллиардов. Вы считаете, что экономика проще, чем физика? В ней более простые процессы?
В экономике процессы проще чем тот, о котором пишете Вы. Впрочем, сложность моделируемых процессов определяется аппаратными возможностями. Большинство экономических работ используют поквартальные серии макроэкономических показателей. В ряде случаев - ежедневные (или даже ежеминутные) финансовые серии.
>Да как вам сказать. Мне так кажется что
>1. Чем сложнее процесс, тем труднее его моделировать, в частности тем больше нужно статистических испытаний для корректной проверки.
В экономике обычно используются агрегированные серии.
>3. Для моделирования ядерно-физических процессов с высокой надежностью требуются многие миллионы имиллиарды испытаний ( хотя правдоподобные результаты во многих случаях можно получить очень быстро.
Всё упирается в суть процессов и в суть проблемы. Чтобы определить, имеет ли влияние экспорт на экономичесикй рост, не нужно моделировать миллионы фирм. Достаточно правильно построить регрессию из нескольких переменных.
>4. Соответствено роль статитстического моделирования для экономики должна бы ограничиваться получением правдоподобных результатов.
А что будем считать критерием правдоподобности?
>5. Которые никак не являются строгими.
Опять же, что такое строгость?
>> зависит от специфики моделируемого процесса,
>Которого мы, увы, не знаем.
Не знаем и не узнаем, но зато конкретную модель сами формулируем. А объясняет ли она явление - на этот счёт соответствующие индикаторы имеются.