Introduction to entropy | Energy and enzymes | Biology | Khan Academy
Articles

Introduction to entropy | Energy and enzymes | Biology | Khan Academy



В това видео ще се запознаем
с понятието ентропия. В началото идеята за ентропия може да изглежда малко загадъчна. Но след няколко клипа се надявам
да започнеш да разбираш на интуитивно ниво
що е то ентропия. Голяма част от определенията за
ентропия се въртят около думата "безпорядък". Можем да приемем, че ентропия
е безпорядъкът на една система. Само с това определение наум искам да сложиш видеото на пауза
и да опиташ да сравниш тези две системи. Искам да сравниш тази стая с тази и да се запиташ коя от двете
има по-голяма ентропия. След което искам да сравниш
Луната и Слънцето тук. Очевидно не са в реален мащаб,
тъй като Слънцето би било много по-масивно и голямо, ако картинките бяха в правилния мащаб. Но коя от тези две системи
е с по-голяма ентропия? Добре, предполагам, че вече опита. Като гледаме двете стаи, на пръв поглед ни се струва,
че тази стая тук е подредена. Това е една чиста стая. А тази тук изглежда в безпорядък, разхвърляна. При така даденото определение за ентропия,
вероятно ти е хрумнало, че щом в тази стая има повече безпорядък, сигурно е с по-голяма ентропия. И не само ти мислиш така. Всъщност в много учебници използват примера
с подредена и разхвърляна стая. И разхвърляната стая се приема за стаята
с по-голяма ентропия. Но всъщност не е точно така. Този "безпорядък" тук е различен от този "безпорядък". Ще наблегна на това, з
а да ти стане съвсем ясно. Разхвърляното не е равно на ентропия. За да разберем какво означава "безпорядък"
в смисъла на ентропия, ще трябва да се потрудим малко повече
как да си го представим. Но се надявам, че ще стане ясно. При ентропията безпорядъкът се определя от броя
състояния, които една система може да приеме. Какво имам предвид под състояния на система? Да речем, че имам кутия. В нея четири молекули
се движат във всички посоки. Едната молекула е розова,
другата синя, тази тук е жълта, а тази е зелена. Това тук е конкретно състояние, конкретна конфигурация. Но в тази система молекулите се движат и могат да заемат други конфигурации. Да заемат други състояния. Жълтата молекула
може да е стигнала тук, синята ето тук, розовата може вече да е тук, а зелената молекула сега е тук. Една система може да заеме
много различни състояния. Аз току-що нарисувах две от
състоянията на тази система. Но тази система може да има
много повече състояния. И тези двете конфигурации са
конкретни състояния на тази система. И така, имаме една система с кутия с четири молекули в нея. Нека я сравним с друга система, където имаме по-голяма кутия с повече молекули в кутията. Да кажем, две жълти молекули, една синя молекула, една зелена молекула, ето и една розова…
Това е доста забавно. Ще нарисувам и светлолилава молекула ето тук В тази по-голяма система има
повече места за молекулите и освен това има и повече молекули. Така че конфигурациите, или състоянията,
ще са повече. Аз нарисувах едно състояние,
но те могат да са много повече. Ако си представим как молекулите
се движат непрестанно в различни посоки, ще ни стане ясно,
че има много различни състояния, които могат да заемат. И без дори да знаем какво правят молекулите
в този конкретен момент, можем да твърдим, че в тази система
има повече възможни състояния, отколкото в тази система, в нея има
по-малко възможни състояния. И тъй като тази система тук
има повече възможни състояния повече конфигурации, ще трябва да ти дам повече информация,
за да разбереш кое къде се намира. И за тази система можем да кажем,
че има по-голяма ентропия. Когато говорим за безпорядък,
всъщност имаме предвид броя възможни състояния на дадено нещо. И има логика, лесно е да си представим че тук има много повече неща, които да се движат, в много повече различни посоки и с много повече пространство за придвижване. Така че е логично тази система като цяло да има по-голяма ентропия. Когато говорим за ентропия, нямаме предвид
някое конкретно състояние, някоя конкретна конфигурация. Говорим за системата като цяло, без да знаем къде се намират
в момента молекулите. В примера със стаите
говорим за конкретни състояния. "Разхвърляна" и "чиста"
са две конкретни състояния. Но не споменаваме
количеството конфигурации, които една стая би могла да има. Всъщност, ако тази стая е по-голяма, би могла да има повече конфигурации. А на молекулно ниво, ако тази стая е топла, а тази студена… или ако тази е просто по-голяма, това означава, че
има повече молекули в нея. И тези молекули могат да бъдат
подредени в много повече конфигурации. Така че е възможно тази стая
да има по-висока ентропия. И така, да вземем предвид тази обосновка,
и нека се върнем към сравнението на Луната и Слънцето. Кое от двете има по-висока ентропия? Нека помислим. Слънцето е по-голямо,
тоест много повече молекули И тези молекули се движат много по-бързо, по-горещи са и се разминават. Докато Луната е малка, студена,
с по-малко молекули. В по-голямата си част е твърда, няма висока температура, което означава,
че молекулите ѝ не се движат много. Има много по-малко състояния,
много по-малко конфигурации от Слънцето. Ако гледаме на Слънцето като на система, то ентропията му е много по-голяма
от тази на Луната. Ентропията му е много по-голяма от лунната. Замисли се, колко информация
би ни била нужна? Ще ни е необходима много информация,
за да разберем къде се намират всяка молекула или всеки атом на Луната. Но при Слънцето ще ни трябва дори повече информация, за да разберем къде се намира всяка молекула във всеки даден момент. Слънцето е огромно, пълно с неща,
които се движат. И всички тези молекули са много активни. Надявам се, че вече започва да ти става ясно
какво е ентропия. Но може би ще си помислиш "Всичко това е много интересно,
но защо е важно?" Важно е, защото до известна степен можем да опишем Вселената
с помощта на ентропията. Както знаем от втория закон на термодинамиката, ентропията във Вселената постоянно нараства. Постоянно вървим към Вселена с повече възможни състояния и последствията от това са много интересни.

16 thoughts on “Introduction to entropy | Energy and enzymes | Biology | Khan Academy

  1. I disagree with you when you say that a messier room doesn't have higher entroy then the cleaner room. You claim that they are just individual states. However, what you didn't consider was the fact that living organisms (like humans) have preference for some states of a system vs. other states – because of the diffirences in the consequences of having some states vs. others. Furthermore, there are fewer states that are preferred than there are of those that are not preferred. Therefore, the reason that a cleaner room has lower entropy is because the number of clean configurations is smaller than the number of messy configurations.

  2. Well , i can't thank you enough , before i found this video ,i have wasted like 1 hour trying to grasp Entropy meaning from other sources and i was about to drop the whole thing xD

  3. I'm confused as to what the number of states refers to as a human we could say that an unbroken vase has few configurations while a broken one has many however thats a purely human thinking style because there's no reason the vase couldn't break
    Just to clarify an orderly stacked pile of blocks has less entropy than that of a randomly thrown pile of blocks? but why? what is the physics that says that in configurations the orderly stack must remain an orderly stack while the blocks of the randomly thrown pile do not have to maintain their relative positions? Or to be more blunt what stops an Alien race from saying that the randomly thrown pile is actually not random but a perfect RRRR shape or whatever and thus they consider only configurations of the blocks preserving the RRRR shape?

  4. I came upon entropy when I was studying decision tree, which was part of the computer science. Everybody told me that entropy was about disorder, about how much information we could get from it. But seriously, I never understood what it actually meant, until I saw your video. I just cannot believe the fact that I understood it in about seven minutes! If I had seen your video earlier, I wouldn't need to struggle for a month to try to find the answer! Thank you, you are an amazing teacher!

    There's only one more thing I need to know. Shannon developed the formula of entropy decades ago. We need it to calculate the information gain when we construct a decision tree. I found out that you also majored in computer science. So is there any video about how the formula was developed, how we could use the formula to calculate the information gain?

  5. OMG! Is it possible that "entropy" is so easily understood? Or, is it, you are one great teacher? This is at least my 5th entropy video, but it is the first one actually understood. Look forward to your next video.

Leave a Reply

Your email address will not be published. Required fields are marked *

Back To Top