آنتروپی اطلاعات

نظریه اطلاعات

مفاهیم

آنتروپی اطلاعات
اطلاعات مشترک
نرخ مخابره
ظرفیت کانال

چهره‌های مهم

کلود شانون
هری نایکویست
رالف هارتلی
توماس کاور
رابرت فانو
ریچارد همینگ
رابرت گالاگر
رادلف السوده
آرون واینر

جوایز مهم

جایزه کلود شانون


در نظریه اطلاعات، آنتروپی (به انگلیسی: Entropy) یا اِنتروپی، معیاری عددی برای اندازه‌ گرفتن اطلاعات، یا تصادفی‌ بودن یک متغیر تصادفی است. به بیان دقیق‌تر، آنتروپی یک متغیر تصادفی، متوسط اطلاعات آن است. با داشتن یک متغیر تصادفی گسسته ، که مقادیری از الفبای می‌گیرد و از توزیع پیروی می‌کند، آنتروپی برای آن به صورت زیر تعریف می‌شود:

هرچه آنتروپی یک متغیر تصادفی بیشتر باشد، ابهام ما درباره آن بیشتر است؛ به این معنی که پس از مشاهده‌ی آن، اطلاعات به‌دست‌آمده از آن بیشتر خواهد بود.

آنتروپی یک منبع اطلاعات، حد پایین نرخ بهترین فشرده‌سازی بی‌اتلاف داده‌های آن منبع است.

اطلاعات حاصل از مشاهده یک رویداد تصادفی، برابر با منفی لگاریتم احتمال رخ دادن آن تعریف می‌شود. یک تابع برای اندازه‌ گرفتن اطلاعات یک روی‌داد تصادفی، ویژگی‌هایی دارد:

  • این‌که اندازه‌ی اطلاعات، نامنفی باشد.
  • اطلاعات حاصل از مشاهدهٔ یک رویداد قطعی (یعنی با احتمال برابر با یک) صفر باشد.
  • مهم‌تر از همه این‌که، اطلاعات حاصل از دو مشاهدهٔ مستقل، برابر با جمع اطلاعات حاصل از مشاهدهٔ تک‌تک آن‌ها باشد.

می‌توان نشان داد تنها تابعی که این سه ویژگی را برمی‌آورد، منفی لگاریتم احتمال است. اندازۀ اطلاعات با تابع لگاریتم در پایه‌های مختلف، با هم تنها در یک ضریب ثابت اختلاف دارد. متداول‌ترین پایهٔ لگاریتم در محاسبهٔ اطلاعات ۲ است که اطلاعات را در واحد بیت محاسبه می‌کند.

به‌طور کلی در علوم و مهندسی، آنتروپی معیاری برای ابهام یا بی‌نظمی است. کلود شانون در مقالهٔ انقلابی خود با نام «A Mathematical Theory of Communication» در ۱۹۴۸، آنتروپی شانون را معرفی کرد و پایه‌گذار نظریهٔ اطلاعات شد.

آنتروپی در نظریهٔ اطلاعات رابطهٔ تنگاتنگی با مفهوم آنتروپی در ترمودینامیک آماری دارد. این قیاس برخاسته از این است که مقادیر متغیر‌های تصادفی، انرژی ریزحالت‌ها را تعیین می‌کنند و برای همین فرمول گیبز برای آنتروپی به صورت صوری دقیقاً مانند فرمول شانون است. آنتروپی در سایر بخش‌های ریاضی همچون ترکیبیات و یادگیری ماشین نیز دارای اهمیت است.

آنتروپی اطلاعات
آنتروپی نتیجهٔ انداختن دو سکهٔ سالم برابر با ۲ بیت است. هر کدام از چهار حالت ممکن ۰٫۲۵ احتمال دارد. اطلاعات حاصل از هر مشاهده برابر با و میانگین اطلاعات حالت‌های ممکن برابر با ۲ بیت است.

مقدمه

ایدهٔ‌ اصلی نظریه اطلاعات این است که «ارزش اطلاعاتی» منتقل شده از طریق یک پیام به میزان غافلگیر کننده بودن این پیام بستگی دارد. اگر یک رویداد بسیار محتمل رخ بدهد، پیام، اطلاعات بسیار کمی را منتقل می‌کند. در عین حال اگر یک رویداد بسیار غیر محتمل رخ دهد، پیام،‌ اطلاعات آگاه‌کننده‌تری را منتقل می‌کند. برای نمونه، دانش اینکه عددی خاص، عدد برندهٔ یک بخت‌آزمایی نیست، اطلاع بسیار کمی در اختیار ما قرار می‌دهد چرا که هر عدد خاص انتخابی به احتمال زیاد برنده نخواهد شد. ولی دانش اینکه عددی خاص برندهٔ بخت‌آزمایی خواهد بود، ارزش اطلاعاتی زیادی دارد چراکه پیام آن رخداد یک پیامد بسیاد نامحتمل است.

محتوای اطلاعاتی یک رویداد آنتروپی اطلاعات ، تابعی است که با کاهش احتمال آن رویداد آنتروپی اطلاعات  افزایش می‌یابد. هنگامی که آنتروپی اطلاعات  به یک نزدیک می‌شود، شگفتی رویداد کم است چرا که انتظار رخداد آن را داریم و هنگامی که آنتروپی اطلاعات  به صفر نزدیک می‌شود، شگفتی رویداد زیاد است چرا که انتظار رخداد آن رویداد را نداریم. این رابطه توسط رابطهٔ زیر مشروح است:

آنتروپی اطلاعات 

که در این رابطه‌ آنتروپی اطلاعات  یا همان لگاریتم هنگامی که احتمال رویداد برابر با یک است، میزان شگفتی را صفر می‌کند. در اصل، آنتروپی اطلاعات  تنها تابعی است که این مجموعه از توصیف‌ها را ارضا می‌کند. بنابراین می‌توان میزان اطلاع یا شگفتی رویداد آنتروپی اطلاعات  برابر است با:

آنتروپی اطلاعات 

که برابر با عبارت زیر است:

آنتروپی اطلاعات 

آنتروپی، مقدار مورد انتظار (میانگین) اطلاعات منتقل شده با تشخیص خروجی یک آزمایش تصادفی را به ما می‌دهد.

تعریف

آنتروپی متغیر تصادفی گسستهٔ آنتروپی اطلاعات  با تابع چگالی احتمال آنتروپی اطلاعات  را با آنتروپی اطلاعات  نمایش می‌دهند که این‌گونه تعریف می‌شود:

آنتروپی اطلاعات 

در رابطهٔ بالا

آنتروپی اطلاعات  تابع امید ریاضی و آنتروپی اطلاعات  تابع میزان اطلاعات رویداد است. آنتروپی اطلاعات  تابعی از یک متغیر تصادفی، و در نتیجه یک متغیر تصادفی است. آنتروپی اطلاعات  پایهٔ لگاریتم است و آنتروپی را با واحدهای متفاوت به دست می‌دهد. متداول‌ترین آنتروپی اطلاعات  ،۲، e، و ۱۰ هستند که به ترتیب آنتروپی را در واحدهای بیت و nat و hartley به دست می‌دهد.

می‌توان آنتروپی آنتروپی اطلاعات  را به صورت باز هم نوشت:

آنتروپی اطلاعات 

همچنین، آنتروپی اطلاعات  را صفر تعریف می‌کنیم که با مشاهدهٔ آنتروپی اطلاعات  نیز سازگار است.

آنتروپی متغیر تصادفی آنتروپی اطلاعات  به شرط آنتروپی اطلاعات  با توزیع احتمال مشترک آنتروپی اطلاعات  نیز به صورت زیر تعریف می‌شود:

    آنتروپی اطلاعات 

آنتروپی اطلاعات  میانگین اطلاعات حاصل از مشاهدهٔ آنتروپی اطلاعات  به شرط اطلاع از آنتروپی اطلاعات  را نشان می‌دهد.

نظریه اندازه

آنتروپی را می‌توان به صورت صوری در زبان نظریهٔ اندازه به صورت روبه‌رو تعریف کرد: اگر آنتروپی اطلاعات  یک فضای احتمالاتی باشد و پیشامد آنتروپی اطلاعات  را داشته باشیم، مقدار شگفتی آنتروپی اطلاعات  برابر است با:

آنتروپی اطلاعات 

مقدار امید شگفتی آنتروپی اطلاعات  برابر است با:

آنتروپی اطلاعات 

یک افراز almost-آنتروپی اطلاعات  خانواده‌ای از مجموعه‌ها آنتروپی اطلاعات  است به گونه‌ای که آنتروپی اطلاعات  و آنتروپی اطلاعات  برای هر آنتروپی اطلاعات متمایز. (این یک سست‌سازی از شروط همیشگی برای افراز است.) آنتروپی آنتروپی اطلاعات  برابر است با:

آنتروپی اطلاعات 

اگر آنتروپی اطلاعات  یک جبر سیگما بر روی آنتروپی اطلاعات  باشد، آنتروپی آنتروپی اطلاعات  برابر است با:

آنتروپی اطلاعات 

در نهایت، آنتروپی فضای احتمالاتی برابر است با آنتروپی اطلاعات ، یعنی آنتروپی نسبت به آنتروپی اطلاعات  همهٔ جبر سیگمای همهٔ زیرمجموعه‌های قابل اندازه‌گیری آنتروپی اطلاعات .

مثال

آنتروپی اطلاعات 
نمودار آنتروپی نتیجهٔ پرتاب یک سکه در واحد بیت بر حسب احتمال شیر آمدن آن. هر چقدر احتمال شیر آمدن سکه به ۰٫۵ نزدیکتر باشد ابهام در مورد نتیجهٔ آن بیشتر است و اطلاع از نتیجه، به‌طور میانگین اطلاعات بیشتری دربردارد.

متغیر تصادفی آنتروپی اطلاعات ، نتیجهٔ پرتاب یک سکه با احتمال شیر آنتروپی اطلاعات  و خط آنتروپی اطلاعات  است. هرچقدر آنتروپی اطلاعات  به آنتروپی اطلاعات  نزدیکتر باشد، ابهام در مورد نتیجهٔ پرتاب بیشتر است و به همین ترتیب اطلاع از نتیجهٔ پرتاب به‌طور میانگین، اطلاعات بیشتری دربردارد. در واقع بیش‌ترین آنتروپی برای آنتروپی اطلاعات  و برابر با ۱ بیت است.

آنتروپی اطلاعات 

وقتی آنتروپی اطلاعات  صفر یا یک باشد، هیچ ابهامی درباره نتیجهٔ پرتاب نیست و به همین ترتیب اطلاع از نتیجهٔ پرتاب هیچ اطلاعاتی در برندارد.

آنتروپی اطلاعات 

برای آنتروپی اطلاعات  انتظار داریم آنتروپی کمتر از مورد یکنواخت و بیشتر از مورد بی‌ابهام باشد.

آنتروپی اطلاعات 

به‌طور کلی، توزیع یکنواخت، بیشترین آنتروپی، و یک رویداد قطعی، کمترین آنتروپی را دارا هستند.

توصیف صفات

برای درک مفهوم آنتروپی اطلاعات ، ابتدا یک تابع اطلاعات آنتروپی اطلاعات  برای رویداد آنتروپی اطلاعات ام با احتمال آنتروپی اطلاعات  تعریف می‌کنیم. مقدار اطلاعات بدست آمده از مشاهده پدیدهٔ آنتروپی اطلاعات  از ویژگی‌های بنیادین اطلاعات شانون پیروی می‌کند:

  1. آنتروپی اطلاعات  به صورت یکنوا در آنتروپی اطلاعات  کاهش می‌یابد: افزایش در احتمال یک رویداد، اطلاعات حاصل از مشاهدهٔ آن را کاهش می‌دهد و بلعکس.
  2. آنتروپی اطلاعات : رویدادهایی که همیشه رخ می‌دهند، هیچ اطلاعاتی را منتقل نمی‌کنند.
  3. آنتروپی اطلاعات : اطلاعات آموخته شده از رویداد‌های مستقل برابر است با جمع اطلاعات بدست آمده از هر رویداد.

با فرض داشتن دو رویداد مستقل، اگر رویداد اول آنتروپی اطلاعات  پیامد هم‌شانس و دیگری آنتروپی اطلاعات  پیامد هم‌شانس داشته باشد، در این صورت آنتروپی اطلاعات  پیامد هم‌شانس برای رویداد توأم آن‌ها وجود دارد. این بدان معناست که اگر برای رمزگذاری مقدار اول آنتروپی اطلاعات  بیت و برای رمزگذاری مقدار دوم به آنتروپی اطلاعات  بیت نیاز داشته باشیم، برای رمزگذاری هر دوی آن‌ها به آنتروپی اطلاعات  بیت نیاز داریم.

شانون کشف کرد که یک انتخاب مناسب برای آنتروپی اطلاعات  به صورت زیر است:

آنتروپی اطلاعات 

در واقع تنها مقادیر ممکن برای آنتروپی اطلاعات  به فرم آنتروپی اطلاعات  به ازای مقادیر منفی برای آنتروپی اطلاعات  می‌باشند. همچنین گزینش یک مقدار برای آنتروپی اطلاعات ، هم‌ارز با گزینش مقدار آنتروپی اطلاعات  برای آنتروپی اطلاعات  است که در این صورت می‌توان مقدار پایهٔ لگاریتم را به کمک آنتروپی اطلاعات  تغییر داد. بنابرین آنتروپی با ویژگی‌های فوق توصیف می‌شود.

فشرده‌سازی داده‌ها

آنتروپی یک منبع اطلاعات، حد پایین متوسط بهترین نرخ فشرده‌سازی بدون اتلاف داده‌های آن منبع است. به بیان دقیق‌تر هیچ روش فشرده‌سازی ای وجود ندارد که به‌طور میانگین مقدار متغیر تصادفی آنتروپی اطلاعات  را با کمتر از آنتروپی اطلاعات  بیت فشرده کند. این حد پایین بسیار قوی است، به‌طوری که برای دنباله‌های به طول آنتروپی اطلاعات  از داده‌های هر منبع تصادفی آنتروپی اطلاعات ، یک روش فشرده‌سازی وجود دارد که به‌طور میانگین، نتیجه هر مشاهده را حداکثر با آنتروپی اطلاعات  بیت فشرده می‌کند.

آنتروپی به عنوان معیاری از تنوع

آنتروپی یکی از راه‌های متعدد سنجش تنوع زیستی است و از آن به صورت شاخص شانون استفاده می‌شود. شاخص تنوع یک معیار کمی آماری برای بررسی انواع گوناگون موجود در یک مجموعهٔ داده است.

کاربرد در یادگیری ماشین

روش‌های یادگیری ماشین به طور عمده مبتنی بر آمار و همچنین نظریه‌ٔ اطلاعات است. به طور کلی، آنتروپی یک معیار برای عدم قطعیت است و هدف یادگیری ماشین کاهش عدم قطعیت است.

الگوریتم‌های یادگیری درخت تصمیم از آنتروپی نسبی استفاده می‌کنند تا قوانین تصمیم‌گیری حاکم بر داده‌ها در هر گره را پیدا کند. کسب اطلاعات در درخت‌های تصمیم آنتروپی اطلاعات ، که برابر است با تفاوت آنتروپی آنتروپی اطلاعات  و آنتروپی شرطی آنتروپی اطلاعات  به شرط آنتروپی اطلاعات ، اطلاع مورد انتظار را کمیت دهی می‌کند.

مدل‌های استنباط بیزی اغلب با استفاده از اصل حداکثر آنتروپی، توزیع احتمال پیشین را بدست می‌آورند. منطق این روش این است که توزیعی که بهترین بیان از دانش ما از حالت کنونی یک سامانه را دارد، همانی است که بیشترین آنتروپی را دارد بنابراین برای توزیع پیشین بودن مناسب است.

طبقه‌بندی در یادگیری ماشین که توسط رگرسیون لجستیک یا شبکه‌های عصبی مصنوعی پیاده‌سازی می‌شود، اغلب از از یک تابع زیان استاندارد، به نام زیان آنتروپی متقاطع، استفاده می‌کند که میانگین آنتروپی متقاطع بین واقعیت و توزیع‌های پیش‌بینی شده را کمینه می‌کند. به طور کلی، آنتروپی متقاطع یک معیار برای محاسبهٔ تفاوت میان ۲ مجموعهٔ داده‌ها است، مانند واگرایی کولبک-لیبلر یا همان آنتروپی نسبی.

جستارهای وابسته

منابع

Tags:

آنتروپی اطلاعات مقدمهآنتروپی اطلاعات تعریفآنتروپی اطلاعات مثالآنتروپی اطلاعات توصیف صفاتآنتروپی اطلاعات فشرده‌سازی داده‌هاآنتروپی اطلاعات آنتروپی به عنوان معیاری از تنوعآنتروپی اطلاعات کاربرد در یادگیری ماشینآنتروپی اطلاعات جستارهای وابستهآنتروپی اطلاعات منابعآنتروپی اطلاعاتنظریه اطلاعات

🔥 Trending searches on Wiki فارسی:

حلق‌کنیاسکندر مقدونیامیر تتلوصادق خلخالیسلمان خاندیجی‌کالاکاندومفورسام (سکس گروهی)پنجاه طیف خاکستری (فیلم)ناپلئون بناپارتپستانافسانه بروس لیآلت مردیمحمود احمدی‌نژادرضاشاهگنگ بنگسینه‌لختیتحقیر اروتیکبریتانیاازگیل ژاپنیچهار قلکسالفیه و شلفیهواژنابوالقاسم طالبیاندیفینال لیگ قهرمانان اروپا ۲۰۱۳همجنس‌گراییبیماری پارکینسونباشگاه فوتبال چلسیارتش جمهوری اسلامی ایرانفهرست فینال‌های لیگ قهرمانان اروپاانگلستانلختی زنان در ایالات متحدهعربستان سعودیهفت سر اژدهاتیاگو سیلوانیکا شاکرمیکوسکوسدریاچه ارومیهسرخیو راموسپلاک وسایل نقلیه در ایرانمتوکلوپرامیدسیامک اطلسیکنترل ارگاسممولویطلسمآمیزش جنسی مقعدیزبان فارسیبچه گوزنکلاشینکفاسترالیاپورنوگرافی هاردکورکوکائینداگی استایلجی. رابرت اوپنهایمرپوست شیرمجمع تشخیص مصلحت نظامچینروسیهدانیال حکیمیشیدا خلیقسکس قبل ازدواجدولت سیزدهم جمهوری اسلامی ایرانبازیگر پورنوگرافیآبله‌مرغاندخول مضاعفپله (بازیکن فوتبال)رخنه (مجموعه تلویزیونی)تالاسمیعلی سورناحسن جوهرچیشکستن آلت مردیمست عشق (فیلم)اختلال کم‌توجهی بیش‌فعالی🡆 More