Информацията (от на латински: informatio – разяснение, изложение, осведоменост) е понятие, свързано с обективното свойство на материалните обекти и явления (процеси) да пораждат многообразие от състояния, които могат да се предават на други обекти чрез взаимодействия и да се запечатват в тяхната структура.
. Информацията представлява налично, използваемо знание, но не съществува единна дефиниция, а има сравнително широк кръг от значения в различните области на знанието..
Информацията е едно от общите понятия, свързани с материята като философско понятие. Информацията съществува във всеки материален обект като многообразие на неговите състояния и може да се създава, унищожава, предава, приема, съхранява и обработва. Съществуването на информацията като обективно свойство на материята произтича от нейните фундаментални свойства – структурност, непрекъснато изменение (движение) и взаимодействие между материалните обекти.
В по-тесния технически смисъл информацията е подредена редица от символи – данни. Те са обект на изследване от информатиката. Информационните технологии са дял на техниката, чиято основна задача е автоматизиране и систематизиране на работата с информация с помощта на изчислителна техника (компютри).
Терминът „информация“ е тясно свързан с понятия като комуникация, система за управление, образование, значение, стимул, възприятие.
Информацията може да се класифицира по различни критерии.
С вида на информацията е свързан изборът на начин за представянето ѝ (кодиране). Сама по себе си информацията не е материална, а като свойство на материята съществува на материални носители във вид на кодове.
Кодирането представлява система на подреждане на дадени знаци или други средства за действия с информацията. Например различните азбуки, състоящи се от букви, образуват думи (код от букви), а те изречения, които представляват съобщения. Друг пример е музиката, която се записва с ноти.
При изчислителните машини, апарати и средства се използва най-често система за кодиране, съответна на бройна система. В зависимост от бройната система тя може да е:
Единична – код от 1 (безсмислена за кодиране, защото не е възможно да се предаде съобщение с код от единствен символ!);
Двоична – 0 и 1 (информация 1 бит на символ – Да /Не, има сигнал/няма сигнал, присъща на всички съвременни дигитални устройства);
Троична – 0, 1, 2 (пример е Морзовата азбука – тире, точка, интервал);
...
N бройна система – 0, 1, 2,..., (N-1).
Представлява кодиране на информацията като данни и съответно промяната ѝ чрез аритметично или друго подобно действие като: съкращаване, разширяване, събиране, изваждане, прибавяне, умножаване или друг възможен процес на обработване.
Компютрите използват за тази цел предимно двоичната бройна система, която представлява двоичен код (бинарен) от 1 и 0 (заемат определено място и позиция при кодирането), който се нарича бит и е най-малката единица информация:
1 бит кодира две стойности 1 или 0 („да“ или „не“).
2 бита кодира четири стойности 00, 01, 10, 11.
3 бита кодира осем стойности 000, 001, 010, 011, 100, 101, 110, 111.
...
x бита кодира 2x различни стойности.
Превръщането или записването на дадена информация в цифров вид с числа, се разлага на двоичен код, като нечетните числа се делят на 2 и остатъците 1 или 0 се записват като част от кода.
Пример:
Жълт цвят = 14
14:2=7+0 – > 0
7:2=3+1 – > 1
3:2=1+1 – > 1
1=1 => бинарен код от 1110
За да се подобри процеса на работа с битовете е въведена нова единица – байт като:
1 байт = 8 бита = 0000 0000, 0000 0001,.., 1111 1111 => 256 (28) различни стойности.
2 байта = 16 бита = 0000 0000 0000 0000,.., 1111 1111 1111 1111 => 65 536 (216) различни стойности
...
x байта = 8.x бита = x(0000 0000) => 28x стойности
Битовете могат да бъдат включени =1 или изключени =0 и заемат определено място и позиция в него.
Теорията на информацията е клон на приложната математика и електротехниката, занимаващ се с количественото измерване на информацията. Нейното начало е поставено в средата на 20 век от американския инженер Клод Шанън, който се опитва да установи фундаменталните ограничения в обработката на сигнали и надеждността на съхраняването и предаването на данни.
През следващите години теорията на информацията намира приложение и в много други области, като статистическите изводи, обработката на естествени езици, криптографията, невробиологията, теорията на еволюцията и функциите на молекулярните кодове, термодинамиката, анализа на данни.
Основна мярка за информация в теорията на информацията е ентропията на Шанън, обикновено изразявана със средния брой битове, необходими за нейното съхранение или предаване. Ентропията оценява несигурността, свързана с предвиждането на стойността на случайна величина. Например, описването на изхода от хвърляне на монета (два равновероятни резултата) съдържа по-малко информация (има по-ниска ентропия) от описването на изхода от хвърляне на зар (шест равновероятни резултата).
Информацията и знанията в съвременното общество се превръщат в основни продукти и определят характера на развитието на цивилизацията. Затова и съвременният етап на развитие на човечеството се нарича информационно общество. В него доминираща роля играят информационно-комуникационните технологии (ИКТ). Характерни са следните особености:
Съществуват четири етапа, под които днес се разглежда понятието информация:
Вилхелм Гаус пише в произведението си Dokumentations-und Ordnungslehre (1995), че информацията може да се разглежда под различни аспекти.
This article uses material from the Wikipedia Български article Информация, which is released under the Creative Commons Attribution-ShareAlike 3.0 license ("CC BY-SA 3.0"); additional terms may apply (view authors). Съдържанието е достъпно под условията на лиценза CC BY-SA 4.0, освен ако не е посочено друго. Images, videos and audio are available under their respective licenses.
®Wikipedia is a registered trademark of the Wiki Foundation, Inc. Wiki Български (DUHOCTRUNGQUOC.VN) is an independent company and has no affiliation with Wiki Foundation.