Портал аспирантов
 

Вернуться   Портал аспирантов > Общие > Свободное общение

Ответ
 
Опции темы
Старый 01.11.2022, 17:51   #1
Paul Kellerman
Gold Member
 
Регистрация: 25.06.2005
Адрес: F000:FFF0
Сообщений: 1,804
По умолчанию Небольшая задача по теории вероятностей

Задача вроде простая, но никак не могу сообразить, как правильно решить. Нужна помощь специалистов.

Есть две независимые случайные непрерывные величины A >=0 и B >= 0, имеющие смысл длительности интервалов времени с некоторыми функциями распределения Fa(t) и Fb(t). Из них на оси времени формируется отрезок из случайных моментов времени T1...T2 следующим образом: T1 = A и T2 = A + B.

Пусть также задан некоторый фиксированный отрезок времени t1...t2, причем t2 > t1.

Как правильно рассчитать вероятность того, что заданный отрезок времени окажется внутри случайного отрезка времени: P(T1 < t1...t2 < T2), через функции распределения случайных величин A и B?

Последний раз редактировалось Paul Kellerman; 01.11.2022 в 18:41.
Paul Kellerman вне форума   Ответить с цитированием
Реклама
Старый 03.11.2022, 12:41   #2
Paul Kellerman
Gold Member
 
Регистрация: 25.06.2005
Адрес: F000:FFF0
Сообщений: 1,804
По умолчанию

Сообразил...

Paul Kellerman вне форума   Ответить с цитированием
Ответ

Опции темы

Ваши права в разделе
Вы не можете создавать новые темы
Вы не можете отвечать в темах
Вы не можете прикреплять вложения
Вы не можете редактировать свои сообщения

BB коды Вкл.
Смайлы Вкл.
[IMG] код Вкл.
HTML код Выкл.



Текущее время: 12:13. Часовой пояс GMT +3.


Powered by vBulletin® Version 3.8.8
Copyright ©2000 - 2024, vBulletin Solutions, Inc. Перевод: zCarot
© 2001—2024, «Аспирантура. Портал аспирантов»
Рейтинг@Mail.ru