نحوه راه اندازی گوشی های هوشمند و رایانه های شخصی پرتال اطلاعاتی

اندازه گیری ساختاری اطلاعات اندازه گیری هارتلی افزودنی


11
درس: "تئوری اطلاعات و کدگذاری"
موضوع: "نظریه اطلاعات ریاضی"

1. کمیت اطلاعات و اندازه گیری آن

مجموعه ای از پیام های انتخاب شده از مجموعه پیام ها از منبع اطلاعات به ورودی سیستم انتقال اطلاعات (ITS) عرضه می شود (شکل 1).

دخالت

x 1 y 1

x 2 y 2

… …

x n y n

عکس. 1. سیستم انتقال اطلاعات

مجموعه پیام ها - یک دسته از پیام های احتمالیبا ویژگی های احتمالی آنها - (X، ص (ایکس) } . که در آن: X=(x 1 ، ایکس 2 , …، ایکس متر } - بسیاری از پیام های منبع ممکن؛ i = 1، 2, ..., متر، جایی که متر- حجم حروف الفبا؛ پ (ایکس من) - احتمال ظاهر شدن پیام ها و پ (ایکس من) 0 و از آنجایی که احتمالات پیام نشان می دهد گروه کاملرویدادها، پس احتمال کل آنها برابر با یک است

.

هر پیام حاوی مقدار مشخصی از اطلاعات است. بیایید مقدار اطلاعات موجود در پیام را تعیین کنیم ایکس من، از مجموعه پیام های منبع انتخاب شده است (X، ص (ایکس) } . یکی از پارامترهای مشخص کننده این پیام، احتمال وقوع آن است - پ (ایکس من), بنابراین طبیعی است که مقدار اطلاعات را فرض کنیم من (ایکس من) در پیام ایکس منیک تابع است پ (ایکس من). احتمال ظاهر شدن دو پیام مستقل ایکس 1 و ایکس 2 برابر حاصل ضرب احتمالات پ (ایکس 1 , ایکس 2 ) = ص (ایکس 1 ). پ (ایکس 2 ), و اطلاعات موجود در آنها باید دارای خاصیت افزودنی باشد، یعنی:

من (ایکس 1 ، ایکس 2 ) =من (ایکس 1 ) +من (ایکس 2 ). ( 1)

بنابراین، یک معیار لگاریتمی برای تخمین مقدار اطلاعات پیشنهاد شده است:

. (2)

در عین حال، کمترین محتمل ترین پیام حاوی بیشترین مقدار اطلاعات است و مقدار اطلاعات موجود در پیام در مورد یک رویداد قابل اعتماد صفر است. زیرا از آنجایی که همه لگاریتم ها متناسب هستند، انتخاب پایه واحد اطلاعات را تعیین می کند:

ورود به سیستم آx = ورود بx/log بآ.

بسته به پایه لگاریتم، از واحدهای اطلاعات زیر استفاده می شود:

2 - [بیت] ( رقم باینری- واحد دودویی)، مورد استفاده در تجزیه و تحلیل فرآیندهای اطلاعاتی در رایانه ها و سایر دستگاه هایی که بر اساس سیستم اعداد باینری کار می کنند.

e - [nit] ( دیجیتال طبیعی- واحد طبیعی) که در روش های ریاضی تئوری ارتباطات استفاده می شود.

10 - [ویرایش] ( رقم اعشاری- واحد اعشاری)، مورد استفاده در تجزیه و تحلیل فرآیندها در دستگاه هایی که با سیستم اعداد اعشاری کار می کنند.

ضرب و شتم (واحد دودویی اطلاعات) - مقدار اطلاعاتی است که عدم قطعیت در مورد وقوع یکی از دو رویداد مستقل و محتمل را برطرف می کند.

مقدار متوسط ​​اطلاعات برای کل مجموعه پیام ها را می توان با میانگین گیری در همه رویدادها به دست آورد:

. (3)

مقدار اطلاعات موجود در یک پیام متشکل از nعناصر غیرمحتمل آن برابر است با (این معیار در سال 1948 توسط K. Shannon پیشنهاد شد):

. (4)

در مورد رویدادهای مستقل به همان اندازه محتمل، مقدار اطلاعات تعیین می شود (این معیار در سال 1928 توسط R. Hartley پیشنهاد شد):

. ( 5)

2. خواص اطلاعات کمیت

1. مقدار اطلاعات در یک پیام با احتمال ظاهر شدن پیام نسبت معکوس دارد.

2. خاصیت Additivity - مجموع اطلاعات از دو منبع برابر است با مجموع اطلاعات منابع.

3. برای یک رویداد با یک نتیجه، مقدار اطلاعات صفر است.

4. مقدار اطلاعات در یک پیام گسسته بسته به افزایش حجم الفبا افزایش می یابد - متر.

ارسال کار خوب خود در پایگاه دانش ساده است. از فرم زیر استفاده کنید

کار خوببه سایت">

دانشجویان، دانشجویان تحصیلات تکمیلی، دانشمندان جوانی که از دانش پایه در تحصیل و کار خود استفاده می کنند از شما بسیار سپاسگزار خواهند بود.

در مورد منطق اندازه گیری لگاریتمیاطلاعات

نظریه اطلاعات اکنون از چارچوب محدود سیستم های ارتباطی فراتر رفته است، جایی که در ابتدا مورد استفاده قرار می گرفت، و به طور گسترده در زمینه های غیر سنتی مانند فیزیک، نظریه سیستم ها، نظریه کنترل، زیست شناسی و ریاضیات استفاده می شود. کاربرد بسیار گسترده ای در زمینه های نسبتاً جدید علوم مانند علوم کامپیوتر، تئوری خودکار و حفاظت از داده ها پیدا کرده است.

بنابراین، تجزیه و تحلیل بیشتر مبانی نظریه اطلاعات به منظور نفوذ به ماهیت آن، که امروزه هنوز تا حد زیادی مرموز باقی مانده است، و شناسایی احتمالات جدید برای کاربرد آن برای حل مسائل عملی ضروری است.

مهمترین مسئله ای که این یا آن نظریه اطلاعات بر اساس آن ساخته می شود، انتخاب معیار اطلاعات است.

تا حد زیادی توسط اشیایی تعیین می شود که تئوری در حال توسعه برای تجزیه و تحلیل هدف قرار می گیرد.

در حال حاضر، در تئوری اطلاعات، معیارهای هارتلی و شانون بسیار گسترده هستند و در برخی موارد معیار هارتلی به صورت مورد خاصشانون اقداماتی انجام می دهد.

با این حال، معیار هارتلی از نظر هدف، تفاوت قابل توجهی با معیار شانون دارد، زیرا هدف اول مطالعه فرآیندهای قطعی (غیر احتمالی) با طول محدود است و دومی با هدف تجزیه و تحلیل است. فرآیندهای احتمالیبا هر مدت زمانی که برای تجزیه و تحلیل آن از روش های آماری استفاده می شود.

بر این اساس، نظریه اطلاعاتی که از یکی از این معیارها استفاده می کند، نظریه اطلاعات ساختاری یا آماری نامیده می شود.

محدود بودن طول آرایه های داده های تجزیه و تحلیل شده، بر این اساس، به امکان محاسبه تعداد آنها با جستجوی ساده یا استفاده از هر یک منجر می شود. روش های ریاضیو همچنین استفاده از روش های غیر احتمالی شناخته شده برای تجزیه و تحلیل اطلاعات، به عنوان مثال، نظریه محمولات محدود یا نظریه گروه. در نتیجه، نظریه اطلاعات ساختاری امروزی روش های کدگذاری را توسعه داده است که نمی توان بر اساس نظریه اطلاعات آماری توسعه داد.

در عین حال، تئوری آماری امکان به دست آوردن قضایای حد و انجام تجزیه و تحلیل اطلاعات پیام ها را بر اساس مجموعه داده های آماری به جای تجزیه و تحلیل هر پیام به طور جداگانه، همانطور که در نظریه اطلاعات ساختاری اتفاق می افتد، می دهد.

اندازه‌گیری لگاریتمی زیربنای نظریه ساختاری اطلاعات، کجا و کجا هستند اعداد مثبتبا طول محدود، نه برابر با 0، و همچنین نه برابر با 1، که توسط هارتلی در سال 1928 پیشنهاد شد، از نظر منطقی توسط او توجیه نشد، اما بر اساس ملاحظات شهودی معرفی شد. علاوه بر این، آنچه که قابل توجه است، در این شکل می تواند هر دو ارزش مثبت، در، و منفی، در، را داشته باشد.

در حال حاضر، با خاصیت افزودنی آن توجیه می شود که در این واقعیت آشکار می شود اطلاعات کلی، به طور مشترک توسط دو منبع اطلاعات تولید می شود و برابر است با مجموع اطلاعات فردی و از هر یک از آنها، به عنوان مثال، در.

در واقع، اگر هر یک از دو منبع به ترتیب پیام تولید کنند، تعداد کل آنها خواهد بود

با گرفتن لگاریتم بیان (1)، برابری را بدست می آوریم

که خاصیت افزایشی معیار اطلاعات هارتلی را ثابت می کند.

بیایید توجیه دیگری برای معیار هارتلی در رابطه با مشکلات جستجو (پیوسته و گسسته) در نظر بگیریم.

یکی از ویژگی‌های مسائل جستجوی گسسته، محدود بودن مجموعه اولیه اشیاء است که با احتمال مساوی نشان می‌دهند. راه حل های امکان پذیرمشکلات جستجوی گسسته، که در میان آنها قرار است یکی از آنها مورد جستجو باشد. جستجوی آن در فرآیند حل یک مشکل گسسته انجام می شود، به عنوان مثال، در مسئله فروشنده دوره گرد معروف اتفاق می افتد.

در این مسئله، شی مورد نیاز مسیری با حداقل طول است که از تعدادی محدود اولیه مسیرهای ممکن انتخاب شده است.

راه حل این مشکلات به یک روش یا روش دیگر در فرآیند پارتیشن بندی متوالی مجموعه اصلی اشیاء ممکن است - راه حل ها به کلاس های هم ارزی و آزمایش هر یک از آنها برای وجود شی مورد نظر در آن. در طول فرآیند آزمایش، عدم قطعیت در مورد وجود شی مورد نظر حذف می شود، همراه با تولید مقدار مناسبی از اطلاعات.

یک مورد خاص از پارتیشن بندی زمانی خواهد بود که اشیاء ممکن اصلی به کلاس های هم ارزی تقسیم شوند به طوری که شامل تعداد کاملاً مساوی از اشیاء کامل باشند.

بدیهی است که چنین پارتیشن هایی فقط در صورتی امکان پذیر است که

جایی که - حداکثر تعدادتقسیم می شود تا زمانی که یک کلاس با یک شی ظاهر شود.

اگر برای اندازه گیری اطلاعات در در این موردرا بگیرید، سپس دقیقاً مطابق با معیار لگاریتمی هارتلی است که برای پایه گرفته شده است:

بنابراین، تعداد پارتیشن ها در طول یک جستجوی گسسته به همان اندازه محتمل برای یک شی در میان موارد ممکن، معیار لگاریتمی اطلاعات هارتلی است و برعکس، معیار هارتلی برای مورد مورد بررسی تعداد پارتیشن های یکنواخت مجموعه ای از اشیاء را به صورت معادل نشان می دهد. کلاس ها تا زمانی که یک شی مورد جستجو ظاهر شود.

که در مورد کلیهنگام تقسیم مجموعه اصلی متشکل از اشیاء به کلاس های معادل، هر یک از آنها ممکن است شامل اشیاء باشد و بر این اساس، احتمال یافتن شی مورد نظر در یک کلاس یا کلاس دیگر برابر است با

که در آن.

فرمول شانون برای آنتروپی، که اندازه گیری عدم قطعیت یافتن شی مورد نظر در یک کلاس هم ارزی خاص را قبل از آزمایش، در طول اولین پارتیشن تعیین می کند.

جایی که بیان می کند که مقدار آنتروپی برای اولین پارتیشن به حداکثر می رسد

زمانی که شی مورد نظر در کلاس های هم ارزی با احتمالات مساوی یافت می شود

در این مورد.

به ترتیب بیشترین مقداراطلاعات تولید شده توسط آزمون در فرآیند حذف آنتروپی نیز برابر با این مقدار خواهد بود

به همین ترتیب، در پارتیشن های باقی مانده، اگر احتمالات یافتن شی مورد نظر در کلاس های هم ارزی جدید برابر باشد، حداکثر مقدار اطلاعات برابر با 1 به دست می آید.

از این نتیجه می شود که برای دستیابی به حداکثر اطلاعات تولید شده توسط آزمون، لازم است، در فرآیند پارتیشن بندی مجموعه ای از اشیاء، آنها را به کلاس های هم ارزی با تعداد مساوی از اشیاء در هر یک از آنها تقسیم کنیم.

از آنجایی که معیار هارتلی، در رابطه با مسئله مورد بررسی، دقیقاً از چنین پارتیشن‌هایی استفاده می‌کند، به این معنی است که حداکثر مقدار ممکن اطلاعات به‌دست‌آمده در فرآیند جستجوی یک شی گسسته را تعیین می‌کند، و از آنجایی که چنین است، پس تعداد پارتیشن ها و بر این اساس، زمان جستجو باید در مقایسه با سایر پارتیشن های ممکن حداقل باشد. این دقیقاً ویژگی اساسی معیار اطلاعات هارتلی است.

در شکل شکل 1 درختی را با 3 پارتیشن یکنواخت در 2 کلاس هم ارزی از اشیاء اصلی نشان می دهد. در رئوس آن تعداد اشیاء موجود در طبقات هم ارزی حاصل نشان داده شده است. در این حالت، حداکثر مقدار اطلاعات در هر راس تولید می شود

در مجموع تمام پارتیشن ها جزء بیت.

شکل 1 - درخت پارتیشن های یکنواخت با

بدیهی است که تعداد پارتیشن های یکنواخت برای این مورد حداقل است.

درخت پارتیشن دیگری در شکل. 2 برای پارتیشن های ناهموار اشیاء در 2 کلاس هم ارزی دارای میانگین تعداد پارتیشن ها در همه است. راه های ممکنپارتیشن ها

که از میانگین تعداد پارتیشن ها برابر با نمونه قبلی بیشتر است.

این به دلیل این واقعیت است که مقدار اطلاعات تولید شده در هر پارتیشن مطابق با فرمول شانون (6) کمتر از 1 بیت است، یعنی زمان جستجو برای شی مورد نظر حداقل نیست.

در این مورد، قانون اساسی باید رعایت شود بازیابی اطلاعات، که به صورت زیر فرموله می کنیم.

مقدار اطلاعات مورد نیاز برای جستجوی یک شی مورد نظر کامل به روش تقسیم مجموعه اصلی اشیاء به کلاس های هم ارزی بستگی ندارد و ثابت و مساوی می ماند.

این بدان معنی است که مهم نیست درخت پارتیشن های مجموعه اصلی اشیاء چیست، مقدار اطلاعات مورد نیاز برای یافتن یکی از آنها همیشه یکسان خواهد بود - .

شکل 2 - درخت پارتیشن های ناهموار برای، و

تقسیم بندی به کلاس های هم ارزی در عمل گسترده است. بنابراین، آنها بر اساس کدگذاری موقعیتی کلمات و اعداد هستند، که در فرآیند تقسیم‌بندی متوالی مجموعه‌های اصلی آنها به کلاس‌های معادل با استفاده از حروف و اعدادی که ویژگی‌های این کلاس‌ها را نشان می‌دهند، رخ می‌دهد. در مجموع، این حروف و اعداد الفبا را تشکیل می دهند و عددی که مجموعه های اولیه کلمات و اعداد به آن تقسیم می شوند نشان دهنده قدرت این حروف الفبا است. تعداد تقسیم ها طول کلمات و اعداد را تعیین می کند.

در نتیجه، هر حرف یا رقم یک کلمه یا عدد نشان دهنده کلاس معادلی است که در یک پارتیشن خاص به آن تعلق دارد.

عبارت اصلی برای نظریه اطلاعات ارائه شده توسط شانون است

در رابطه با مسئله جستجو بیان می کند که مقدار اطلاعات تولید شده در فرآیند آن برابر با تفاوت بین آنتروپی اولیه است.

شی مورد نظر و باقیمانده

تعداد باقیمانده اشیایی که در میان آنها مورد نظر وجود دارد، کجاست.

بدیهی است که در فرآیند تقسیم و آزمایش، تعداد کاهش می یابد و در نهایت چه زمانی

آخرین عبارت نشان می دهد شرط مهم، که به عنوان اصل وحدت تدوین شده است.

ماهیت آن به این خلاصه می شود که اطلاعات کاملاطلاعات در مورد یک شی به دست می آید اگر و تنها در صورتی که یک شی کامل در طول فرآیند جستجو پیدا شود.

اگر، پس این نشان می دهد که اطلاعات مربوط به شی تا حدی به گیرنده منتقل شده است.

یک مورد خاص برای آن وجود خواهد داشت. برای او می پذیرد معنی منفی- و به همین ترتیب

این بدان معنی است که در مورد مورد بررسی، زمانی که آزمایش تولید می کند اطلاعات تکمیلیدر مورد جزئیات یک شی که اکنون به کلاس های هم ارزی جدید و قبلا ناشناخته تعلق دارد. این روش برای جزئیات یک شی می تواند به طور نامحدود ادامه یابد. به عنوان مثال، در درخت پارتیشن در شکل. 1 بعد از رأس (کلاس معادل)، که بعد از پارتیشن سوم یک شی را شامل می شود، می تواند رئوس حاوی 0.5 شی (پارتیشن چهارم)، سپس 0.25 و غیره باشد. هر بار مقدار اطلاعات مربوط به شی 1 بیت افزایش می یابد و می تواند به هر مقداری برسد.

این رویه این واقعیت شناخته شده در علم را تأیید می کند که هر شیئی می تواند به طور نامحدود قابل شناخت باشد، با این حال، اصل وحدت نقض می شود، زیرا و بر این اساس، i.e. شی تجزیه و تحلیل شده را نمی توان به عنوان یک سیستم کامل شناسایی کرد.

تمام ملاحظات فوق برای مشکلات جستجو با تعدادی از اشیا نیز اعمال می شود، مشروط بر اینکه اعداد غیر صحیح از اشیاء در کلاس های هم ارزی به دست آمده در فرآیند پارتیشن بندی مجاز باشند.

از نابرابری نتیجه می شود که

و به همین ترتیب

آنتروپی در کجاست.

آنتروپی در.

قضیه 1.اگر پارتیشن امین تعداد اشیا شامل کلاس های هم ارزی با تعداد اشیاء مساوی باشد، نابرابری برقرار است.

اثبات

از شرط و بر این اساس نتیجه می شود که.

قضیه ثابت شده است.

نتیجه 1.آنتروپی پارتیشن با نابرابری محدود می شود

قضیه 2.اگر پارتیشن امین تعداد اشیاء در دارای کلاس های هم ارزی با تعداد اشیاء باشد، آنگاه نابرابری برقرار است.

اثباتاز آنجا که، پس تعداد اشیاء قرار داده شده با توجه به کلاس های هم ارزی پارتیشن کجاست.

از شرط و، بر این اساس، بلافاصله به دنبال آن است.

قضیه ثابت شده است.

نتیجه 1آنتروپی باقیمانده توسط نابرابری محدود می شود

در شکل 3، به عنوان مثال برای قضایای 1، 2، یک درخت برای سه پارتیشن با داده شده است مقدار اصلیاشیاء. نشان می دهد که کلاس های پارتیشن دوم هر کدام شامل 1.5 شی و کلاس های پارتیشن سوم هر کدام شامل 0.75 شی هستند. در امتداد محور مختصات عمودی در شکل اعداد اشیاء اصلی و در امتداد محور افقی مقدار کل اطلاعات بدست آمده پس از تقسیم بعدی 1، 2، 3 و مقدار اطلاعات باقیمانده است. مقدار اطلاعات تولید شده در هر مرحله ثابت و حداکثر باقی می ماند:

قضیه 3.

اثباتاز آن پس کجا. با گرفتن لگاریتم از آخرین عبارت، به آن می رسیم

قضیه ثابت شده است.

شکل 3 - درخت پارتیشن در.

قضیه 4

اثباتاز آن پس کجا. با گرفتن لگاریتم از آخرین عبارت، به آن می رسیم.

قضیه ثابت شده است.

نتیجه 1

از آنجایی که در طول پارتیشن‌ها، اعداد در کلاس‌های به‌دست‌آمده توسط پارتیشن امین تعداد بیشتری را شامل می‌شوند و کلاس‌های پارتیشن امین حاوی کمتر از 1 شی هستند، این بدان معناست که مقدار اطلاعات مربوط به شی بعد از پارتیشن امین

کمتر از مقدار مورد نیاز برای شناسایی شی مورد نظر است، به این معنی که نمی توان آن را به طور کامل تعیین کرد و پس از پارتیشن پنجم مقدار اطلاعات

زیاد می شود و در نتیجه نه تنها خود شی مشخص می شود، بلکه برخی از جزئیات آن نیز مشخص می شود که برای حل مشکل جستجو غیر ضروری است.

در این صورت، تنها در مورد اول نقض اصل وحدت وجود دارد و در مورد دوم این اصل با قابلیت اطمینان بیشتری حفظ و حتی تضمین می شود. بنابراین، در عمل، اگر مجموعه ای از اشیاء در حال تجزیه و تحلیل باشد، با نزدیکترین مجموعه حاوی اشیاء جایگزین می شود و جستجوی شی مورد نظر در میان اشیاء این مجموعه انجام می شود.

بنابراین، می‌توان در مورد اندازه‌گیری گسسته (عدد صحیح) اطلاعات صحبت کرد، که یک نوع اندازه‌گیری لگاریتمی لگاریتمی است که میانگین تعداد پارتیشن‌ها را در کلاس‌های هم ارزی نشان می‌دهد که با احتمال مساوی، تعداد اشیاء یکسانی را تا اندازه مورد نظر نشان می‌دهد. به دست آمده است. این معیار می تواند به طور موثر در مسائل ریاضیات گسسته و ترکیبیات، که در آن راه حل ها اشیاء عدد صحیح هستند، استفاده شود.

با این حال، پارتیشن‌ها را می‌توان به تعداد غیرصحیح کلاس‌های هم ارزی نیز تبدیل کرد. در این صورت می توان به اصل وحدت برای هر کسی دست یافت ارزش واقعی، حل معادله

به طور نسبی.

به عنوان مثال، زمانی که مقدار باید تقریباً برابر انتخاب شود. سپس.

بدین معنی که بر این اساس میزان اطلاعات به دست آمده در 3 تقسیم برابر خواهد بود

که در آثار نظریاغلب به صورت مساوی انتخاب می شود و در عمل بیشتر از مقدار پایه لگاریتم استفاده می شود که بر اساس آن چنین اندازه گیری مدرن اطلاعات به عنوان یک بیت به دست می آید - ، یعنی مجموعه اولیه اشیاء برای این اندازه شامل، و شی مورد نظر در یک پارتیشن به 2 کلاس معادل پیدا می شود که هر کدام شامل 1 شی است. آنتروپی باقیمانده در این حالت برابر با 0 است و بر این اساس، اصل واحدی برای بیت رعایت می شود.

مقدار به دست آمده در بالا برای تعداد صحیح پارتیشن برای مجموعه اصلی اشیاء نیز می تواند بر اساس ملاحظات زیر بدست آید.

پایه لگاریتمی که در آن

تعداد صحیح پارتیشن هایی که از عبارت پیدا می شود کجاست

به ترتیب

از (25) چنین بر می آید که

به عنوان مثال، برای

این بدان معنی است که اگر مجموعه اصلی اشیاء به کلاس های معادل تقسیم شود تا یک عدد صحیح به دست آید، آنگاه شی مورد نظر در پارتیشن های عدد صحیح که حداقل تعداد ممکن آنها را نشان می دهد، پیدا می شود. علاوه بر این، در طول هر تقسیم حداکثر مقدار اطلاعات تولید می شود - یک و برای تقسیم - واحد.

اجازه دهید رابطه (25) را به عنوان چگالی اطلاعات اولیه قبل از پارتیشن اول تعریف کنیم:

واضح است که چگالی اطلاعات با تغییر از 1 به محدوده 0 به 1 تغییر می کند.

بنابراین برای، چگالی اطلاعات اولیه

پس از هر پارتیشن، چگالی اطلاعات مطابق با عبارت تعیین می شود

بنابراین، برای مثال در نظر گرفته شده در بالا، پس از پارتیشن اول به دو کلاس هم ارزی

و بعد از دوم

از عبارت (28) چنین برمی‌آید که پس از هر پارتیشن، چگالی اطلاعات کاهش می‌یابد و تنها زمانی که برای همه پارتیشن‌ها ثابت بماند و برابر با حداکثر - 1 باشد.

از (26) چنین بر می آید که

و بر این اساس در

بنابراین، با دانستن این موضوع، می‌توانیم تعداد مورد نیاز کلاس‌های هم ارزی را تعیین کنیم که تعداد اولیه اشیاء باید به ترتیب به آنها تقسیم شود تا تعداد پارتیشن‌ها به دست آید. از آنجایی که این حداکثر مقدار اطلاعات ممکن را تولید می کند، این حداقل تعداد تقسیمات تحت این شرایط خواهد بود.

نتیجه 1 قضیه 4 نشان می دهد که مقدار اطلاعات تولید شده در آخرین پارتیشن

ضمناً مطابق با (16) برابر 0 نیست.

برای به دست آوردن اطلاعات کامل در مورد یک شی کافی است: سپس عبارت (31) شکل خواهد گرفت

از آنجایی که از (17) نتیجه می شود که

سپس برابری (32) بر اساس بیان قابل دستیابی است

که با توجه به یک داده شده، تحت توزیع احتمال مربوطه برآورده می شود.

بنابراین، به عنوان مثال، برای

و به همین ترتیب

برای دستیابی به آخرین برابری، احتمالات و باید به ترتیب برابر با 0.15 باشد. 0.85 یا 0.85; 0.15.

این به این معنی است که عدد به دست آمده در پارتیشن دوم در اندازه شی در طول پارتیشن سوم به دو قسمت متناسب با احتمالات (225/0 و 275/1) تقسیم می شود که سپس با آزمونی برای تعیین رابطه یکی از آنها با احتمالات تجزیه و تحلیل می شود. مورد نظر احتمال یافتن آنها برابر است یا بسته به اندازه آنها.

در نتیجه اطلاعات کاملی در مورد یکی از آبجکت ها به دست خواهد آمد، البته علاوه بر پارتیشن های یکنواخت، از پارتیشن های ناهموار نیز استفاده شده است.

در مورد معیار لگاریتمی صرفاً اطلاعات، با توجه به تعداد اشیاء اولیه که باید به دست آیند، مقدار باید نشان دهنده اطلاعاتی باشد که از تقسیم ناقص اشیاء به دو قسمت مساوی به دست می آید به طوری که هر یک از آنها حاوی عناصر دو شیء باشد. در این حالت، آنتروپی برابر با 0 خواهد بود زیرا اطلاعات به دست آمده در طول آخرین پارتیشن عدد صحیح تا حدی برای حذف تداخل در طول آزمایش ایجاد شده توسط عناصر یک شی دیگر استفاده می شود.

از آنچه در بالا مورد بحث قرار گرفت، نتیجه می شود که اطلاعات با تعداد پارتیشن های مجموعه ای از اشیاء ممکن اندازه گیری می شود تا زمانی که فرد کل مورد نظر را به دست آورد. منبع اطلاعات در این مورد تستی است که کلاس هم ارزی که شی مورد نظر در آن قرار دارد را نشان می دهد. در عین حال، اطلاعات به عنوان یک موجودیت مستقل به طور مستقیم در طول پارتیشن ها ظاهر نمی شود و خارج از چارچوب روش اندازه گیری (شمارش تعداد پارتیشن ها) باقی می ماند. در آزمون با نشان دادن نتایج مقایسه خود را نشان می دهد که در همزمانی یا عدم تطابق ویژگی های طبقات هم ارزی با ویژگی های متناظر موجود در آزمون آشکار می شود. این به این معنی است که آزمون باید اطلاعات پیشرفته ای در مورد ویژگی های کلاس های هم ارزی تحلیل شده داشته باشد. عملکرد نهایی آن رمزگشایی ویژگی های این کلاس ها و توسعه اقدامات کنترلی است که نشان می دهد کدام یک از کلاس های تجزیه و تحلیل شده باید به زیر کلاس ها تقسیم شوند. گام بعدیپارتیشن ها، یا اینکه شی پیدا شده است و روند جستجو باید خاتمه یابد.

ضروری برای جستجوی یک شی این است که تنها پس از به دست آوردن تمام اطلاعات در مورد آن، می توان آن را بدون ابهام شناسایی کرد، که تنها زمانی اتفاق می افتد که آنتروپی باقیمانده وجود داشته باشد. این تنها در صورتی امکان پذیر است که فرآیند پارتیشن بندی یک کلاس معادل تولید کند که حاوی یک شی واحد باشد. در این صورت، آنتروپی و در نتیجه اصل یکپارچگی برآورده می شود.

چنین موردی زمانی رخ خواهد داد که تعداد اولیه اشیاء. اگر با پارتیشن بندی یکنواخت، آخرین کلاس هم ارزی دارای کمتر از یک شی خواهد بود و در نتیجه، اطلاعات اضافی به دست می آید که جزئیات شی را نشان می دهد و هنگام جستجو برای آن استفاده نمی شود.

در عمل، در مسائل کدنویسی، جایگزینی تعداد اولیه اشیاء با یک عدد بسیار مورد استفاده قرار می گیرد که از یک سو منجر به ارضای اصل واحد و از سوی دیگر به افزایش مقدار می شود. اطلاعات اضافی تولید شده توسط آزمون

اسناد مشابه

    مفهوم و اهداف روش شی کانونی - جستجوی ایده های جدید با الصاق ویژگی ها یا ویژگی ها به شی اصلی اشیاء تصادفی. فعال سازی تفکر انجمنی به عنوان یکی از روش های تحقیق اکتشافی در نظریه تصمیم گیری.

    تست، اضافه شده در 2012/12/24

    مبانی نظریپردازش اولیه اطلاعات آماری. ویژگی های تعیین حداقل تعداد اشیاء مشاهده هنگام ارزیابی شاخص های قابلیت اطمینان. تجزیه و تحلیل مقاله احتمال قوانین توزیع نرمال و توزیع وایبول.

    کار دوره، اضافه شده در 2010/03/22

    مفاهیم و روش های اساسی کدگذاری اطلاعات. ویژگی های فرآیند رمزگشایی بارکد. فناوری و تجهیزات بارکدینگ استفاده از فناوری شناسایی خودکار بارکد در سیستم های لجستیکی.

    کار دوره، اضافه شده 05/09/2013

    مفهوم آنتروپی آنتروپی به عنوان معیار درجه عدم قطعیت. مفهوم اطلاعات. اندازه گیری اطلاعات قضیه شانون در مورد کدگذاری در حضور نویز. نمونه ای از کاربرد آنتروپی در پیش بینی و اهمیت آن برای پیش بینی.

    چکیده، اضافه شده در 1387/12/14

    توسعه اقتصادی مدل ریاضیو حل مشکل برنامه ریزی خطیبا استفاده از روش های ریاضی وظیفه حمل و نقلدر فرمول ماتریس و خواص آن ساخت طرح قابل اجرا اولیه. معیار بهینه بودن

    کار دوره، اضافه شده در 2011/01/16

    مبانی مدل سازی ریاضیاشیاء قطعی و تصادفی شناسایی اشیاء کنترلی با پاسخ گذرا. به دست آوردن مدل با استفاده از روش چندگانه رگرسیون خطیو بررسی کفایت آن با استفاده از معیار فیشر.

    کار دوره، اضافه شده 10/14/2014

    ساده ترین الگوریتم ها برای جستجوی تصادفی جهت دار. بهترین الگوریتم آزمایشی با ابر مربع راهنما. بهینه ساز آماری چند کاناله با جستجوی تصادفی. روش گرادیان آماری. محلی جستجوی تصادفیبا توجه به بهترین نمونه

    کار دوره، اضافه شده در 2015/02/08

    مفاهیم و تعاریف نظریه الگوریتم های ژنتیک. مبانی ریاضی فیزیک اختراعی. الگوریتم ژنتیک برای مسئله اختراعی. شرح عملگرهای الگوریتم ژنتیک سیستم جستجو و ردیابی ذهنی در ذهن مخترع.

    کار دوره، اضافه شده در 2012/05/22

    ساخت یک مدل ریاضی مشکل دوگانه(سیستم های محدودیت در سود واحد و تابع هدف کل هزینه های مواد اولیه. تعیین مجموعه بهینه قیمت مواد اولیه، تضمین حداقل هزینه کل مواد اولیه. تجزیه و تحلیل متغیرها.

    تست، اضافه شده در 2015/05/18

    برنامه ریزی تجربی به عنوان یک رشته ریاضی و آماری. جستجو برای شرایط و قوانین بهینه برای انجام آزمایش ها به منظور به دست آوردن اطلاعات در مورد یک شی با کمترین میزان کار. تئوری تحقیق همبستگی، معیارهای همبستگی.

اندازه گیری ترکیبی

برای درک بهتر، اجازه دهید به چند مثال ساده نگاه کنیم.

مثال 1. بیایید یک آزمایش انجام دهیم. بیایید یک تاس برداریم. دارای شش ضلع است که هر کدام دارای اعداد از یک تا شش هستند.

بیایید او را پیاده کنیم. هنگام پرتاب قالب یکی از اعداد کناره های قالب ظاهر می شود. عددی که به این ترتیب به دست می‌آید، نتیجه تجربه ماست.

با پرتاب تاس به تعداد دفعاتی که دوست داریم، تنها می توانیم شش عدد ممکن را بدست آوریم. بیایید این را با N = 6 نشان دهیم.

این مثال به ما اجازه می دهد تا به مفهوم معیار ترکیبی اطلاعات برویم و تعریف زیر را ارائه دهیم:

اندازه گیری اطلاعات ترکیبی N روشی برای اندازه گیری مقدار اطلاعات با تخمین تعداد ترکیب های ممکن است. عناصر اطلاعاتی.

از آنجایی که در مثال با تاس تنها شش نتیجه ممکن از آزمایش وجود دارد، به عبارت دیگر، شش ترکیب، بنابراین مقدار اطلاعات مطابق با معیار ترکیبی N = 6 ترکیب است.

مثال زیر را در نظر بگیرید.

مثال 2.بگذارید یکی از ارقام اعشاری داده شود، به عنوان مثال، عدد 8، و یکی از اعداد هگزادسیمال - به عنوان مثال، عدد 6 (شما می توانید هر هگزادسیمال دیگری بگیرید - 8، B، F، و غیره). حال مطابق با تعریف یک معیار ترکیبی، مقدار اطلاعات موجود در هر یک از این اعداد را تعیین می کنیم. از آنجایی که عدد 8 یک عدد اعشاری است، به این معنی که یک کاراکتر از ده را نشان می دهد، پس N 8 = 10 ترکیب است. به همین ترتیب، عدد 6 یکی از شانزده نماد را نشان می دهد و بنابراین N 6 = 16 ترکیب. بنابراین، رقم هگزادسیمال شامل اطلاعات بیشتراز اعشار

از مثال در نظر گرفته شده، می‌توان نتیجه گرفت که هرچه ارقام کمتری در پایه سیستم اعداد باشد، اطلاعات کمتری را یکی از عناصر آن حمل می‌کند.

مهندس انگلیسی آر. هارتلی اندازه گیری مقدار اطلاعات را با یک اندازه گیری لگاریتمی باینری پیشنهاد کرد:

که در آن N عدد است ترکیبات مختلفعناصر اطلاعاتی واحد اطلاعات در این اندازه گیری بیت است.

از آنجایی که فرمول به دست آمده توسط R. Hartley تعداد ترکیب های ممکن N را در نظر می گیرد، جالب است بدانیم که اندازه گیری لگاریتمی باینری چه تخمینی از مقدار اطلاعات را برای مثال های مطرح شده در بالا می دهد.

محاسبه نتایج زیر را به دست می دهد:

در مثال مکعب I = log 2 6 = 2.585 بیت.

در مثال با سیستم اعشاریریشه I = log 2 10 = 3.322 بیت.

در مثال با سیستم هگزادسیمالریشه I = log 2 16 = 4 بیت.

در مثال با سیستم اعداد باینری I = log 2 2 = 1 بیت.

رقم آخر نشان می دهد که هر رقم از سیستم اعداد باینری حاوی یک بیت اطلاعات است. به طور کلی در سیستم های فنی سیستم دودویی radix برای رمزگذاری دو حالت ممکن استفاده می شود، به عنوان مثال 1 نشان دهنده حضور است جریان الکتریسیتهدر شبکه، 0 - عدم وجود آن.



در تمام مثال‌های مورد بحث در بالا، نتایج آزمایش‌ها به همان اندازه محتمل و مستقل از یکدیگر بودند. این بدان معنی است که هنگام پرتاب یک قالب، هر یک از شش طرف احتمال یکسانی برای نتیجه موفقیت آمیز دارند. و همچنین اینکه نتیجه پرتاب بعدی به هیچ وجه به نتیجه قبلی بستگی ندارد.

رویدادهای به همان اندازه محتمل و مستقل از یکدیگر در زندگی واقعیکاملا نادر هستند. اگر به زبان های گفتاری مانند روسی توجه کنید، می توانید نتایج جالبی بگیرید. برای ساده سازی تحقیقات نظری در علوم کامپیوتر، به طور کلی پذیرفته شده است که الفبای روسی از 32 کاراکتر تشکیل شده است (e و ё و همچنین ь و ъ با یکدیگر تفاوتی ندارند، اما یک کاراکتر فاصله بین کلمات اضافه می شود). اگر فرض کنیم که هر حرف از زبان روسی به طور مساوی در یک پیام ظاهر می شود و هر حرف می تواند با هر علامت دیگری دنبال شود، می توانیم مقدار اطلاعات در هر کاراکتر زبان روسی را به صورت زیر تعیین کنیم:

I = log 2 32 = 5.

با این حال، در واقعیت این مورد نیست. در همه زبان های گفتاری، برخی از حروف رایج تر و برخی دیگر بسیار کمتر رایج هستند. تحقیقات نشان می دهد که تعداد تکرارها در هر 1000 حرف به شرح زیر است:

علاوه بر این، احتمال ظاهر شدن حروف جداگانه بستگی به این دارد که کدام حروف قبل از آنها باشد. بنابراین، در زبان روسی، یک مصوت نمی تواند با یک علامت نرم دنبال شود، چهار مصوت در یک ردیف نمی توانند ظاهر شوند و غیره. هر زبان گفتاری ویژگی ها و الگوهای خاص خود را دارد. بنابراین، میزان اطلاعات موجود در پیام‌های ساخته شده از نمادهای هر زبان گفتاری را نمی‌توان با معیارهای لگاریتمی ترکیبی یا باینری تخمین زد.

1

در این مقاله مدلی برای تعیین اندازه لگاریتمی اطلاعات ارائه شده است. از ساختار سیستم فنییک شی شناسایی می شود و حالت های احتمالی خرابی و عملکرد آن در نظر گرفته می شود. زمانی که حالت ها به یک اندازه محتمل هستند، پیشنهاد می شود از معیار هارتلی و برای حالت های غیرمحتمل، معیار شانون برای یک یا چند شیء در صورتی که متقابل مستقل باشند، استفاده شود. این مدل امکان تعیین اندازه ای از اطلاعات را برای تنها یک شی در نظر می گیرد. تمام حالت های شی به دو کلاس تقسیم می شوند. هر یک از کلاس های انتخاب شده بر اساس داده های مربوط به جریان رویدادهای نابرابر احتمالی تشکیل شده است. برای هر کلاس از حالت های شی، احتمالات کل و تعمیم یافته عملکرد و شکست تعیین می شود. این احتمالات در به دست آمده کاربرد پیدا کرده اند عبارات ریاضیبرای تعیین اندازه گیری عدم قطعیت اطلاعات. نشان داده شده است که فرمول های به دست آمده هم در هنگام استفاده از احتمال کل و هم از احتمال تعمیم یکسان و قابل استفاده هستند.

حالت شی فنی

آنتروپی

اندازه گیری لگاریتمی اطلاعات

1. Vilchinskaya O.O.، Gataullin I.N.، Golovinov S.O. و دیگران تعیین مقدار اطلاعات در ساختار یک سیستم فنی // فناوری اطلاعات: حوزه های اولویت دارتوسعه. کتاب 5: تک نگاری. – Novosibirsk: CRNS – Sibprint Publishing House, 2010. – 261 p.

2. دولسوف A.S.، Semenova M.Yu.، Khrustalev V.I. ویژگی های آنتروپی یک سیستم فنی // تحقیقات پایه. – 2011. – شماره 8 (قسمت 3). – صص 631-636.

3. Dulesov A.S., Uskova E.A. کاربرد رویکردهای هارتلی و شانون برای مشکلات تعیین میزان اطلاعات سیستم های فنی // سوالات علم مدرنو تمرین کنید. دانشگاه به نام در و. ورنادسکی. – 2009. – شماره 2 (16). – ص 46-50.

4. Dulesov A.S., Uskova E.A. کاربرد فرمول هارتلی برای تخمین اتصالات ساختاریعناصر در وظیفه تضمین عملکرد قابل اعتماد سیستم های فنی // مسائل علم و عمل مدرن. دانشگاه به نام در و. ورنادسکی. – 2009. – شماره 6 (20). – صص 37-41.

5. کوزنتسوف N.A. تعامل اطلاعاتیدر سیستم های فنی و زندگی // فرآیندهای اطلاعاتی. – 2001. – T. 1. – No. 1. – P. 1-9.

معرفی. سیستم های فنی پیچیده مشمول تعدادی از الزامات از جمله نگهداری هستند سطح بالاقابلیت اطمینان (عملکرد). سیستم های بسیار قابل اعتماد، به عنوان یک قاعده، تحت نظارت و تشخیص هستند تا به سرعت حذف شوند مشکلات احتمالی، که ظاهر آن ماهیت احتمالی دارد. به طور کلی، کنترل سیستماتیک به شما اجازه می دهد تا به دست آورید تصویر بزرگوضعیت سیستم با در دست داشتن آن، می توانید راه حل هایی با هدف حفظ رفتار پایدار سیستم، حفظ سطح قابلیت اطمینان و در نتیجه حل مشکل سایبرنتیک ایجاد کنید. علاوه بر این، با ردیابی "حرکت" سیستم در زمان و مکان، می توان تکامل یا پیری آن را قضاوت کرد، اما از منظر هم افزایی.

یک فرآیند طبیعی در سیستم های فنی پیری است که به طور جدایی ناپذیری با مفهومی مانند "عدم قطعیت" مرتبط است. رویکردهای روش شناختی زیادی برای تجزیه و تحلیل فرآیندها و حفظ عملکرد سیستم وجود دارد. یکی از آنها مبتنی بر استفاده از تئوری اطلاعات است و به حل مسئله به دست آوردن معیار عدم قطعیت اطلاعات (آنتروپی) می پردازد. به نوبه خود، ارزش آنتروپی اطلاعاتبه عنوان معیاری برای انتخاب از گزینه های ممکن عمل می کند.

در تئوری اطلاعات آنها خود را پیدا کردند استفاده عملیاندازه گیری هارتلی، که به فرد امکان می دهد فرآیندهای قطعی با طول محدود را اندازه گیری کند، و اندازه گیری شانون - فرآیندهایی با هر مدت زمان، که تجزیه و تحلیل آنها از روش های آماری احتمالی استفاده می کند. هر دو معیار در حوزه های ساختاری و آماری نظریه اطلاعات گنجانده شده اند.

هنگام کار با یک شی فنی، زیرسیستم کنترل سیگنال ها یا پیام هایی را در مورد وضعیت سیستم ارسال می کند که از آن مجموعه ای از داده های آماری تشکیل می شود. کاربرد آنها و جهت گیری های نظریه اطلاعات می تواند به عنوان مبنایی برای تجزیه و تحلیل اطلاعات مورد استفاده قرار گیرد.

مدلی برای تعیین میزان اطلاعات. یک سیستم فنی را می توان در قالب یک بلوک دیاگرام با حضور عناصر و اتصالات بین آنها نشان داد. از نقطه نظر ارزیابی قابلیت اطمینان، شاخص هایی به ساختار وارد می شوند: مدت زمان ترمیم عنصر، میزان خرابی و غیره که بر اساس آنها احتمال خرابی و عملکرد بدون خرابی عنصر تعیین می شود. بیشتر شاخص ها به دلیل وجود عدم قطعیت در رفتار سیستم، ماهیت احتمالی دارند. استفاده از معیار عدم قطعیت اطلاعات می تواند مفید باشد وسیله موثربرای ارزیابی وضعیت سیستم فنی، عناصر و ساختار آن. امکانات استفاده از این معیار در سیستم های فنی را می توان در آثار یافت. تغییر حالت بر عملکرد عملکردهایی تأثیر می گذارد که یکی از آنها مربوط به انتقال انرژی (منابع) در سیستم است. بر اساس ویژگی های عملکردی سیستم، امکان پذیر است حداقل، دو گزینه برای ارزیابی وضعیت (تغییر در ساختار). اولی با در نظر گرفتن فرآیند جریان همراه نیست، دومی جهت جریان ها را در نظر می گیرد نمودار ساختاریسیستم های. در مرحله بعد، هنگام ساخت مدل، گزینه اول را در نظر خواهیم گرفت.

ساده ترین مدل کمی سازی محتوای ساختاریسیستم رویکرد هارتلی است که محاسبه مقدار اطلاعات موجود در یک پیام را پیشنهاد کرد. برای مورد ما، فرض می کنیم که سیستم و هر یک از عناصر آن می توانند در یکی از دو حالت گسسته مستقل باشند: عملیاتی و غیرعملی. سپس می توان فرض کرد که اطلاعات از عناصر به صورت سیگنال به سیستم کنترل و مدیریت می رسد نوع گسسته: 0 - عنصر سیستم کار نمی کند (در حالت غیرقابل اجرا است). 1 - المنت کار می کند (در شرایط کار). اگر فرض کنیم که علاقه ای به زمان ماندن یک عنصر در یک حالت یا حالت دیگر نداریم، پس تعداد کلتمام حالت های ممکن عناصر با فرمول بیان می شود:

که در آن: k = 2 - تعداد حالت های ممکن یک عنصر یا سیستم. n تعداد عناصر موجود در سیستم مورد بررسی است.

در فرمول (1)، تعداد کل حالت‌ها (ترکیب‌ها) N تعداد پیام‌هایی است که از سیگنال‌های محتمل و مستقلی که از عناصر می‌آیند تشکیل می‌شوند. با افزایش تعداد عناصر n، تعداد ترکیبات N افزایش می یابد. بنابراین هارتلی از مقدار N به عنوان مبنایی برای تعیین اندازه گیری میزان اطلاعات استفاده کرد. با توجه به (1) حداکثر تعداد حالت های سیستم تعیین می شود. در یک موقعیت واقعی (در یک بازه زمانی معین، به عنوان مثال یک سال)، تعداد حالت ها همیشه کمتر از N خواهد بود. از آنجایی که ممکن است به وضعیت سیستم در فواصل زمانی فردی علاقه مند باشیم، چنین اندازه گیری از مقدار اطلاعات، با توجه به (1)، مناسب نیست استفاده عملی. هارتلی با پیشنهاد اینکه مقدار اطلاعاتی که من در پیام ها دارم باید تابعی از N باشد، یعنی I = f(N) راه حلی پیدا کرد. از آنجایی که تعداد عناصر n یک توان است، یک تابع لگاریتمی برای تعیین I استفاده می شود:

از آنجایی که تعداد حالت های k و پایه لگاریتم برابر با 2 در نظر گرفته شده است، مقدار اطلاعات در چنین شرایطی به عنوان یک واحد در نظر گرفته می شود که به آن "بیت" (واحد باینری) می گویند.

ظهور عوامل در سیستم منجر به پیدایش یکی از حالات آن می شود که در رابطه با حالت مقابل مستقل هستند. شرط استقلال دولت ها بیانگر آن است که اطلاعات کلی طبق (2) برابر با مجموع اطلاعات فردی و . در اینجا و تعداد حالات مربوط به عملکرد و خرابی عناصر سیستم است. تعداد کل آنها

به عنوان مثال، اگر دو عنصر را در یک سیستم در نظر بگیریم، که هر یک می تواند در هر یک از دو حالت باشد، برای 3 عنصر - N = 8.

با گرفتن لگاریتم بیان (3)، به دست می‌آییم:

که خاصیت افزایشی معیار اطلاعات هارتلی را ثابت می کند. این اقدامبه شرطی معتبر است که حالت‌های احتمالی یکسانی در سیستم وجود داشته باشد که مجموعه‌ای محدود را تشکیل می‌دهند.

اجازه دهید قابلیت های اندازه گیری هارتلی را در رابطه با مشکلات جستجوی محتوای گسسته ساختار یک سیستم گسترش دهیم، مشروط بر اینکه مجموعه اصلی محدود باشد.

از آنجایی که فقط دو حالت از سیستم در نظر گرفته می شود - عملیاتی و شکست، آنها دو کلاس هم ارزی از حالت ها را تشکیل می دهند (به عبارت (4) مراجعه کنید). ما همچنین فرض می کنیم که هر یک از عناصر سیستم فنی حالت هایی را ایجاد می کند که فقط به دو کلاس هم ارزی تعلق دارند.

اگر تعداد عناصر را در نظر بگیریم، با توجه به (1) اندازه گیری حاصل با معیار لگاریتمی هارتلی منطبق خواهد شد:

از (5) مشخص می شود که مقدار اطلاعات در بیت برابر با تعداد عناصر سیستم است. در نتیجه، برای حالت‌های متقابل و مستقل از عناصر، مقدار اطلاعات را می‌توان از طریق فرمول بیان کرد:

بنابراین، در حضور عناصر در سیستم و در حالت‌های به همان اندازه احتمال، عبارت (6) نشان‌دهنده اندازه‌گیری لگاریتمی اطلاعات هارتلی است.

در (6)، حالات (عملیات و شکست) با هم ترکیب شده اند. با این حال، جدا کردن حالت های مخالف مطلوب است، زیرا هنگام ادغام آنها، معنای ارزیابی سطح قابلیت اطمینان از طریق اندازه گیری اطلاعات از بین می رود. علاوه بر این، احتمال یافتن یک عنصر در هر حالت برابر نیست. از آنجایی که مهمترین وظیفه حفظ سطح بالایی از قابلیت اطمینان یک عنصر یا سیستم است، در عمل احتمال یک حالت عملیاتی همیشه بالاتر از احتمال مخالف خواهد بود. برای جلوگیری از ادغام اطلاعات (که ماهیت آن در هنگام ارزیابی قابلیت اطمینان یک سیستم مخالف است)، هر کلاس هم ارزی باید جداگانه در نظر گرفته شود.

احتمال نابرابر وجود حالت ها برای یک عنصر یا سیستم، استفاده از فرمول شانون را مجبور می کند. دومی معیاری برای عدم قطعیت وجود یا حضور احتمالی حالت یک عنصر در یک کلاس هم ارزی خاص است. بیایید با استفاده از مثال زیر فرمول را در نظر بگیریم.

به عنوان مثال، هنگام ارزیابی قابلیت اطمینان یک سیستم فنی، حالات عناصر آن در بازه های زمانی طولانی (یک سال یا بیشتر) در نظر گرفته می شود. در یک دوره زمانی انتخاب شده، حالات متناوب، به دنبال یکدیگر، جریانی از رویدادها را تشکیل می دهند. در این جریان، هر رویداد با نوع خود (شکست یا عملکرد)، زمان وقوع و تکمیل و همچنین سایر شاخص ها مشخص می شود. این حالت ها در بدنه کنترل ثبت می شوند که یکی از وظایف آن حفظ سطح بالای عملکرد سیستم است. هنگام حل این مشکل (در مورد ما، با تعیین مقدار اطلاعات)، جریان رویدادهای موجود طبقه بندی می شود و رویدادها را به عنصر i-ام خاص یا خود سیستم نسبت می دهند. بنابراین، برای یکی از عناصر، با داشتن جریانی از رویدادها، می توان احتمال وقوع هر یک از آنها را تعیین کرد: pi و qi - احتمال اینکه عنصر i در حالت کار و غیرفعال باشد. احتمال وقوع رویدادهای یک نوع یک احتمال کل را تشکیل می دهد، pi + qi = 1. سپس مقدار اطلاعات رویدادهای غیرمحتمل و مستقل از یکدیگر که در یک عنصر موجود است با فرمول شانون تعیین می شود:

اگر عناصر سیستم را به صورت مستقل در نظر بگیریم، با استفاده از فرمول شانون می توانیم اطلاعات را به صورت تعریف کنیم.

(8)

احتمالات موجود در (8) قبل از لگاریتم میانگین مقدار خود لگاریتم است. اگر حالت ها را بر اساس نوع جدا نکنید، این عبارت را می توان به صورت بازنویسی کرد

(9)

موضوع B (9) - مقدار متوسط ​​احتمال وقوع رویدادهای همه n عنصر.

با این حال، (8) به دلیل وجود روابط بین عناصر، کاربرد کمی دارد و به همین دلیل، حالات عناصر، وضعیت های خود سیستم را تعیین خواهند کرد. اگر وظیفه تعیین مقدار اطلاعات موجود در سیستم باشد، مستلزم تحقق شرایط خاصی است: 1) فرد باید داده های جمعی در مورد وضعیت های سیستم در یک دوره زمانی طولانی داشته باشد. 2) داده های مربوط به هر یک از عناصر. به عنوان مثال، بر اساس شرط دوم، می توان بر اساس نتایج ارائه شده در کار، راه حل مسئله را به دست آورد. در مرحله بعد، امکان تعیین اندازه اطلاعات را تنها برای یک عنصر، بدون استثناء سیستم از بررسی، در نظر خواهیم گرفت.

در ادامه، امکاناتی را در تعیین میزان اطلاعات تنها برای یک عنصر (شیء) در نظر خواهیم گرفت. در این صورت، استفاده از عبارت (7) در شرایط p + q = 1 منصفانه خواهد بود. سپس حداکثر اطلاعات در p = q به دست می آید و برابر با 1 خواهد بود.

در عباراتی برای تعیین اندازه اطلاعات، اعتبار استفاده از لگاریتم پایه 2 با تقسیم کل مجموعه حالت های عنصر به دو کلاس معادل توضیح داده می شود: حالت های عملیاتیو احتمالات آنها به کلاس اول k1 اختصاص داده می شود، آنهایی که بی اثر هستند - به کلاس دوم k2. هر دو کلاس هم ارزی شامل یک عدد صحیح از حالت ها m = G + L هستند، که در آن G تعداد حالت های عملکرد، L عدم عملکرد عنصر سیستم است. در کلاس اول مجموعه ای از حالت های G با احتمال کل وجود دارد، در دسته دوم - L با احتمال کل وجود دارد.بنابراین، هر کلاس به حالت های مجزای نابرابر احتمالی تقسیم می شود.

با شناسایی 2 کلاس معادل، که در آن هر یک از آنها مجموعه ای از حالت های نامتعادل خود را دارد، اطلاعات مطابق (7) را می توان با عبارت:

با توجه به اینکه , (11)

که در آن pg و ql به ترتیب احتمال g-امین حالت های عملیاتی و l-امین حالت غیرفعال هستند (m = G + L) - تعداد کل حالت های عنصر. عبارات (7) و (10) یکسان هستند و زمانی که داده ها با ردیابی جریان رویدادها یا داده های آماری تعمیم یافته قبلی به دست می آیند، قابل استفاده هستند. اگر احتمالات حالت های عنصر برابر باشد - рg = ql، (مثلا рg = ql = 0.125 و G = L = 4) با توجه به عبارت (10) و مشروط به شرط (11)، به دست می آوریم. حداکثر مقداراطلاعات I* = 1، در حالی که طبق (8) - I = 3. بنابراین، اگر احتمالات برابر باشند، مقدار اول به معنای حداکثر مقدار اطلاعات موجود در یک عنصر، دوم - در 3 عنصر مستقل است. که در مورد دوماستفاده از (8) غیر قانونی است.

اغلب در عمل محاسبه سطح قابلیت اطمینان، تحلیلگر بر در دسترس بودن داده های آماری تکیه می کند. در عین حال، او می تواند مقادیر تعمیم یافته آماده را بگیرد یا با انباشت تجربه عملیاتی، جریان رویدادها را در نظر بگیرد و در نتیجه یک سری احتمالات را به دست آورد و بر اساس قضیه جمع احتمالات، مقدار کل را پیدا کند و بر این اساس، q کل. با جایگزینی این مقادیر در (7)، می‌توانیم مقدار اطلاعات موجود در یک عنصر را تعیین کنیم.

بنابراین، عبارت (10) یک معیار لگاریتمی برای عدم قطعیت اطلاعات موجود در یک عنصر با در نظر گرفتن تقسیم به حالت های عملیاتی و غیرعملیاتی است.

اجازه دهید به یک ویژگی دیگر در به دست آوردن یک معیار عدم قطعیت توجه کنیم. به دلیل این واقعیت است که فرمول شانون با فرمول های هارتلی (3)-(6) برای رویدادهای به همان اندازه محتمل سازگار است. اگر جریان حالتهای نابرابر احتمالی (رویدادها) را در نظر بگیریم، با در نظر گرفتن (3)، احتمالات تعمیم یافته هر یک از طبقات بر اساس شانون به صورت

و (12)

با آنها تعریف قضیه ضرب احتمال کار می کند، زیرا فرض بر این است که سطح قابلیت اطمینان یک عنصر را می توان به شکل رویدادهای مستقل متوالی نشان داد. با داشتن احتمالات تعمیم یافته مطابق (12)، می توان نتیجه گرفت که اندازه گیری اطلاعات برای هر یک از کلاس های هم ارزی دارای خاصیت افزایش است. سپس اندازه گیری اطلاعات را می توان با فرمول تعیین کرد:

در (13)، مقادیر pav و qav میانگین مقدار اطلاعات را نشان می‌دهند.

اگر در این بیان pav و qav شناخته شده است، سپس با فرمول (10) مطابقت دارد. در اصل، عبارات برای تعیین مقادیر متوسط ​​باید این واقعیت را در نظر بگیرند که در هر کلاس معادل، رویدادها از نظر ماهیت وقوع آنها و محتوای عللی که آنها را به وجود آورده اند، همگن نیستند. در نتیجه، پایه لگاریتم هنگام تعیین اطلاعات برای یک کلاس از رویدادها باید با پایه پذیرفته شده 2 متفاوت باشد.

در تئوری لگاریتم، عبارت شناخته شده است ، که در مورد ما (مثلاً برای کلاس k1) به نظر می رسد

از عبارت (14) موارد زیر به دست می آید:

(15)

نسبت موجود در (15) را می توان به عنوان تراکم اطلاعات در نظر گرفت. سپس (مثلاً برای کلاس k1) می توانیم رابطه را بنویسیم:

جایی که

سپس (13) با در نظر گرفتن مقادیر میانگین می توان به صورت زیر نوشت:

(17)

اجازه دهید شرط را بپذیریم: G = L = 4; рg = ql = 0.125. سپس با توجه به عبارت (17) و مشروط به شرط (11) حداکثر مقدار اندازه گیری اطلاعات که انطباق با عبارت (10) را تایید می کند.

نتیجه. از آنچه در بالا مورد بحث قرار گرفت نتیجه می شود که ساختار یک سیستم فنی، متشکل از عناصر و اتصالات بین آنها، تابع تجزیه و تحلیل اطلاعاتو ارزیابی از نقطه نظر قابلیت اطمینان. هر عنصر می تواند در یکی از دو حالت باشد: عملکرد یا خرابی. تعداد حالت ها، اگر به یک اندازه محتمل باشند، مقدار معیار هارتلی را مطابق (6) تعیین می کند و به دو کلاس هم ارزی تقسیم می شود: کلاس قابل اجرا و کلاس حالت های غیرقابل اجرا عنصر سیستم. اگر رویدادها به یک اندازه محتمل نباشند، می‌توان اندازه‌گیری اطلاعات برای یک عنصر را با فرمول (7) تعیین کرد. هنگامی که عناصر متقابل مستقل هستند، با استفاده از فرمول شانون (8) و (9) می توان اندازه گیری اطلاعات را برای سیستم به عنوان یک کل تعیین کرد.

با در نظر گرفتن حالت‌های تنها یک عنصر یا شی، هر یک از کلاس‌های انتخاب شده بر اساس داده‌های مربوط به جریان رویدادهای نابرابر احتمالی تشکیل می‌شوند. برای هر یک از کلاس های هم ارزی، امکان تعیین احتمالات کل و تعمیم یافته عملکرد و خرابی عنصر وجود دارد. این شاخص ها برای تعیین اندازه گیری عدم قطعیت اطلاعات عنصر بر اساس عبارات به دست آمده (10) و (17) با تقسیم به کلاس حالت های قابل اجرا و غیرقابل اجرا قابل استفاده هستند. نشان داده شده است که (10) و (17) یکسان و قابل اجرا هستند: عبارت اول - در حضور یک احتمال کل، دوم - در مورد یک احتمال تعمیم یافته.

با استفاده از فرمول های فوق می توان میزان عدم قطعیت را برای عناصر هم نوع تعیین کرد و بر اساس مقادیر به دست آمده، کمتر قابل اعتماد را انتخاب کرد.

داوران:

ناگروزوا لیوبوف پترونا، دکترای علوم فنی، استاد گروه ساخت و ساز مؤسسه فنی Khakass - شعبه ای از موسسه آموزشی مستقل دولتی فدرال آموزش عالی حرفه ای "دانشگاه فدرال سیبری"، آباکان.

بولاکینا النا نیکولاوینا، دکترای علوم فنی، استاد گروه خودرو و صنعت خودرو موسسه فنی خاکاس - شعبه ای از موسسه آموزشی مستقل دولتی فدرال آموزش عالی حرفه ای "دانشگاه فدرال سیبری"، آباکان.

پیوند کتابشناختی

دولسوف A.S.، Kabaeva E.V. اندازه گیری لگاریتمی اطلاعات وضعیت یک شی فنی // مسائل معاصرعلم و آموزش – 2013. – شماره 1.;
URL: http://science-education.ru/ru/article/view?id=8210 (تاریخ دسترسی: 04/06/2019). مجلات منتشر شده توسط انتشارات "آکادمی علوم طبیعی" را مورد توجه شما قرار می دهیم.

بهترین مقالات در این زمینه