در نظریه احتمال، استقلال شرطی شرایطی را توصیف میکند که در هنگام ارزیابی قطعیت یک فرضیه یک مشاهده بیربط یا اضافی است. استقلال شرطی معمولاً بر حسب احتمال شرطی نوشته میشود، به عنوان یک مورد خاص که در آن احتمال رخداد یک رویداد با توجه به یک مشاهده غیر اطلاعاتی برابر با احتمال رخداد بدون آن مشاهده است. اگر رخداد مورد نظر ما باشد و و مشاهدات باشند، استقلال شرطی را میتوان به صورت زیر بیان کرد:
که احتمال پس از مشاهده و است. از آنجایی که احتمال رخداد به شرط همان احتمال با توجه به هر دو مشاهده و است، این برابری بیانگر آن است که هیچ کمکی به قطعیت نمیکند. در این مورد، گفته میشود که و مشروط به C مستقل هستند، به صورت نمادین نوشته شدهاست: .
مفهوم استقلال شرطی برای نظریههای استنتاج آماری مبتنی بر گراف ضروری است، زیرا یک رابطه ریاضی بین مجموعهای از گزارههای شرطی و یک گرافوئید برقرار میکند.
هر سلول میتواند در گروه رویداد های مختلفی قرار بگیرد که رنگ آن را مشخص میکنند. رویداد ، و به ترتیب با نواحی سایه دار red، blue و yellow نشان داده میشوند. همپوشانی بین رویدادها و purple سایه دار شدهاست.
احتمال این رویدادها نسبت ناحیه سایه دار هر کدام به کل مساحت است. در هر دو مثال و به شرط مستقل داده شدهاند زیرا:
فرض کنید دو رویداد A و B این باشند که دو نفر به موقع برای شام به خانه برسند و سومین رویداد درنوردید شهر توسط یک طوفان برفی باشد. در حالی که هر دو فرد در صورت وقوع طوفان به احتمال کمتری به موقع برای شام به خانه میرسند، این دو رویداد (A و B) همچنان مستقل از یکدیگر خواهند بود؛ یعنی دانستن اینکه اولی دیر رسیدهاست به شما نمیگوید که آیا فرد دیگر دیر خواهد رسید یا نه. البته در اینجا فرض شدهاست آنها در محلههای مختلف زندگی کنند، مسافتهای مختلفی را طی کنند و از روشهای مختلف حمل و نقل استفاده کنند و اگر بدانیم آنها در یک محله زندگی میکنند، از حمل و نقل یکسان استفاده میکنند و در یک مکان کار میکنند، آنگاه این دو رویداد به صورت شرطی مستقل نیستند.
استقلال شرطی به ماهیت رویداد سوم بستگی دارد. اگر دو تاس بیندازید، ممکن است فرض شود که دو تاس مستقل از یکدیگر رفتار میکنند. با نگاه کردن به نتایج یک تاس نمیتوانید در مورد نتیجه دومی صحبت کنید. (یعنی دو تاس مستقل هستند) با این حال، اگر نتیجه اولین تاس ۳ باشد، و شخصی در مورد رویداد سوم به شما بگوید - که مجموع دو نتیجه زوج است - در این صورت این واحد اطلاعات اضافی گزینههای نتیجه دوم را به یک عدد فرد محدود میکند. به عبارت دیگر، دو رویداد میتوانند مستقل باشند، اما بهطور مشروط مستقل نیستند.
قد و دایره لغات وابسته هستند زیرا افراد بسیار کوچک معمولاً کودک هستند و به خاطر واژگان اولیه خود شناخته میشوند. اما دانستن اینکه دو نفر ۱۹ ساله هستند (یعنی مشروط به سن) دلیلی وجود ندارد که فکر کنیم دایره لغات یک نفر بزرگتر است اگر به ما گفته شود قد آنها بلندتر است.
یک سنسور ضد حریق را در نظر بگیرید که در صورت وجود دود در یک اتاق هشدار میدهد. حال رویداد A را هشدار دادن دستگاه، رویداد B را وجود آتش در اتاق و رویداد C را وجود دود در اتاق در نظر بگیرید. آیا رویداد A و B مستقلاند؟ خیر؛ زیرا در صورت دانستن رخداد هر کدام، احتمال رخ دادن دیگری افزایش پیدا میکند.
فرض کنید به ما گفته شود که رویداد C رخ دادهاست. حال آیا رویداد A و B مستقلاند؟ بله؛ زیرا در صورت دانستن رخداد هر کدام، احتمال رخ دادن دیگری تغییری نمیکند.
دو متغیر تصادفی و با توجه به سومین متغیر تصادفی گسسته ، به صورت شرطی مستقل هستند اگر و تنها اگر آنها در توزیع احتمال شرطی خود به شرط مستقل باشند. به این معنا که، و به شرط مستقل هستند اگر و فقط اگر، با توجه به هر مقدار از ، توزیع احتمال برای همه مقادیر و توزیع احتمال برای همه مقادیر باشند؛ یعنی:
جایی که نشان دهنده انتظار مشروطتابع شاخص رویداد است ، ، با توجه به جبر سیگما . به این معنا که،
دو متغیر تصادفی و با توجه به جبر σ یا به صورت شرطی مستقل هستند اگر معادله بالا برای به ازای هر که در و که در صدق کند.
دو متغیر تصادفی و با توجه به یک متغیر تصادفی، مشروط به مستقل هستند اگر آنها به شرط (W)σ مستقل باشند که (W)σ جبر σ تولید شده توسط W است؛ یعنی:
یا
این خوانده میشود " مستقل از است به شرط "؛ شرطی شدن برای کل رویداد به صورت زیر اعمال میشود: "( مستقل از ) به شرط ".
اگر مجموعه ای از مقادیر قابل شمارش را فرض شود، این معادل استقلال شرطی X و Y برای رویدادهای به شکل است. استقلال شرطی بیش از دو رویداد یا بیش از دو متغیر تصادفی بهطور مشابه تعریف میشود.
دو مثال زیر این را نشان میدهد نه دلالت دارد و نه به وسیله . اول، فرض کنید با احتمال ۰٫۵ برار ۰ و در غیر این صورت ۱ است. زمانی که W = ۰ است و را دو رویداد مستقل فرض کنید که هر کدام دارای مقدار ۰ با احتمال ۰٫۹۹ و در غیر این صورت مقدار ۱ هستند. زمانی ، و دوباره مستقل هستند، اما این بار مقدار ۱ را با احتمال ۰٫۹۹ میگیرند. پس برقرار است. ولی و وابسته هستند، زیرا Pr(X = 0) < Pr(X = 0| Y = ۰). این به این دلیل است که Pr(X = ۰) = ۰٫۵، اما اگر Y = ۰ پس به احتمال بسیار زیاد W = ۰ و بنابراین X = ۰ است و میرسیم به Pr(X = 0| Y = ۰) > ۰٫۵.
برای مثال دوم، فرض کنید ، هر کدام مقادیر ۰ و ۱ را با احتمال ۰٫۵ میگیرند. اجازه دهید محصول باشد. پس از آن زمانی که ، Pr(X = ۰) = ۲/۳، اما Pr(X = 0| Y = ۰) = ۱/۲، بنابراین نادرست است این نیز نمونه ای از Explaining Away است. با توجه به آموزش کوین مورفی[۲] و ارزشهای «مغز» و «ورزشی» را در نظر بگیرید.
فرض کنید p نسبت رأی دهندگانی باشد که در رفراندوم پیش روی «آری» خواهند داد. در انجام یک نظرسنجی، n رایدهنده را بهطور تصادفی از بین جمعیت انتخاب میشوند.Xi میتواد ۰ یا ۱ باشد و نشان میدهد آیا رایدهنده iام رای «بله» میدهد یا نه.
در یک رویکرد بیزی به استنتاج آماری، یک توزیع احتمال را به pاختصاص میدهیم، و احتمالات را بهعنوان درجاتی از اعتقاد به این که p در هر بازهای است تفسیر کنیم. که یک احتمال به آن اختصاص داده شدهاست. در آن مدل، متغیرهای تصادفی X1، …، Xnمستقل نیستند، اما با توجه به مقدار pبه صورت شرطی مستقل هستند. بهطور خاص، اگر تعداد زیادی از Xها برابر با ۱ مشاهده شود، این به معنای احتمال شرطی بالا است، با توجه به آن مشاهده، که p نزدیک به ۱ است، و بنابراین احتمال شرطی بالا، با توجه به آن مشاهده، که Xبعدی که باید مشاهده شود برابر با ۱ خواهد بود.
مجموعه ای از قواعد حاکم بر بیانیههای استقلال مشروط از تعریف اصلی مشتق شدهاست.[۳][۴]
این قواعد توسط پرل و پاز "Axioms Graphoid " نامیده شدند[۵] زیرا در گرافها وجود دارند، جایی که به این معنا تفسیر میشود: "همه مسیرها از X تا A توسط مجموعه B قطع میشوند ".
برای توزیعهای احتمال کاملاً مثبت،[۴] موارد زیر نیز صادق است:
با فرض:
با استفاده از این برابری، همراه با قانون احتمال کل در اعمال میشود:
از آنجا که و ، نتیجه میشود که .
نکته فنی: از آنجایی که این مفاهیم برای هر فضای احتمالی صدق میکنند، اگر کسی یک جهان فرعی را با شرطی کردن همه چیز بر روی متغیر دیگری در نظر بگیرد، همچنان پابرجا خواهد بود. ک. مثلاً، همچنین به این معنی است که .
↑To see that this is the case, one needs to realise that Pr(R ∩ B | Y) is the probability of an overlap of R and B (the purple shaded area) in the Y area. Since, in the picture on the left, there are two squares where R and B overlap within the Y area, and the Y area has twelve squares, Pr(R ∩ B | Y) = 2/12 = 1/6. Similarly, Pr(R | Y) = 4/12 = 1/3 and Pr(B | Y) = 6/12 = 1/2.