Menurut teori sistem, entropi adalah ukuran ketidakteraturan atau ketidakpastian dalam sistem. Dalam konteks ini, entropi mengacu pada tingkat ketidakaturan atau kekacauan dalam suatu sistem tertutup.
Konsep ini berasal dari teori termodinamika dan digunakan dalam teori sistem untuk menjelaskan bagaimana sistem cenderung menuju keadaan yang lebih acak atau kurang teratur seiring waktu.
Dalam istilah yang lebih umum, entropi dapat dianggap sebagai ukuran tentang sejauh mana energi atau informasi dalam sistem telah tersebar secara merata atau menjadi tidak tersusun. Semakin tinggi entropi dalam suatu sistem, semakin besar ketidakpastian atau kekacauan dalam sistem tersebut.
Entropi juga digunakan dalam konteks informasi, di mana entropi informasi mengukur tingkat ketidakpastian dalam suatu rangkaian data atau informasi. Semakin tinggi entropi informasi, semakin besar ketidakpastian atau kejutan dalam informasi tersebut.
Dalam kedua kasus, konsep entropi memberikan pemahaman tentang bagaimana sistem cenderung berubah dari keadaan teratur atau berenergi tinggi ke keadaan yang lebih acak atau berenergi rendah, kecuali ada energi atau informasi tambahan yang diintroduksi ke dalam sistem.