fbpx
วิกิพีเดีย

ทฤษฎีสารสนเทศ

สำหรับความหมายอื่น ดูที่ ทฤษฎีข้อมูล

ทฤษฎีสารสนเทศ (อังกฤษ: information theory) เป็นสาขาหนึ่งใน ทฤษฎีความน่าจะเป็น และคณิตศาสตร์เชิงสถิติ ขอบข่ายเนื้อหาของทฤษฎีนี้จะเกี่ยวข้องกับสารสนเทศ, เอนโทรปีของสารสนเทศ, ระบบการสื่อสาร, การส่งข้อมูล, ทฤษฎีอัตราการบิดเบือน, วิทยาการเข้ารหัสลับ, สัดส่วนสัญญาณต่อสัญญาณรบกวน, การบีบอัดข้อมูล, การแก้ความผิดพลาด และหัวข้ออื่น ๆ ที่เกี่ยวข้อง

คำแปลที่ตามราชบัณฑิต คือ "ทฤษฎีสารสนเทศ" นี้ มาจากคำว่า "information theory" ซึ่งคำว่า information เป็นคำเดียวกันกับที่หมายถึง สารสนเทศ แต่เนื่องจากความหมายของ information theory นั้นจะเกี่ยวเนื่องกับ เนื้อความในแง่ของสัญญาณ จึงอาจจะใช้คำว่า ทฤษฎีข้อมูล แทนความหมายของสารสนเทศ ที่เป็นในแง่ของเนื้อหาข่าวสาร และ สื่อตัวกลาง หรือสื่อบันทึกในบางกรณี

ตัวอย่างของการนำทฤษฎีสารสนเทศมาประยุกต์ใช้ ได้แก่ ZIP Files, เครื่องเล่นเอ็มพีสาม , อินเทอร์เน็ตความเร็วสูงดีเอสแอล, อุปกรณ์สื่อสารไร้สาย อาทิ โทรศัพท์มือถือ วิทยุสื่อสาร, เครื่องเล่นซีดี และการศึกษาเกี่ยวกับหลุมดำ เป็นต้น

ประวัติ

คล็อด อี. แชนนอน ได้รับการขนานนามว่าเป็น "บิดาแห่งทฤษฎีสารสนเทศ" ทฤษฎีของแชนนอนนี้ เป็นทฤษฎีแรกที่ได้ทำการวินิจฉัยปัญหาทางการสื่อสาร ในรูปของปัญหาคณิตศาสตร์เชิงสถิติ เป็นทฤษฎีที่ได้เปิดหนทาง ให้วิศวกรการสื่อสาร สามารถคำนวณขนาด หรือปริมาณสูงสุดของช่องสัญญาณ ออกมาในหน่วยบิต (bits)

ทฤษฎีสารสนเทศที่เรารู้จักอยู่ในทุกวันนี้ เป็นที่ยอมรับโดยทั่วไปว่า เริ่มต้นจากผลงานตีพิมพ์ของแชนนอนเรื่องทฤษฎีเชิงคณิตศาสตร์ของการสื่อสาร (The Mathematical Theory of Communication) ลงในวารสารทางเทคนิคเบลล์ซิสเต็ม (Bell System Technical Journal) ฉบับเดือนมิถุนายน ในปี พ.ศ. 2491 (ค.ศ. 1948) ซึ่งงานชิ้นนี้นั้น เป็นงานที่ได้สร้างเสริมต่อมาจาก ผลงานของ แฮร์รี นายควิสท์ (Harry Nyquist) และ ราล์ฟ ฮาร์ทลีย์ (Ralph Hartley)

ในงานของแชนนอน ที่ทำให้วิศวกรระบบสื่อสาร สามารถออกแบบระบบสื่อสารที่มีประสิทธิภาพสูงขึ้นได้นั้น แชนนอนได้นิยามเอนโทรปีของสารสนเทศเท่ากับ

 

สูตรนี้เมื่อนำไปใช้กับ แหล่งกำเนิดสารสนเทศ จะทำให้สามารถคำนวณขนาดของช่องสัญญาณ ที่จำเป็นต้องใช้ในการส่งข้อมูลนั้น ในรูปของรหัสฐานสองได้ โดยถ้าลอการิทึมในสมการข้างต้น เป็นฐานสอง เอนโทรปีที่วัดจะอยู่ในหน่วยบิตเช่นกัน แต่ถ้าเป็น ลอการิทึมฐานธรรมชาติ หรือ ฐาน   เอนโทรปีที่วัดจะอยู่ในหน่วย แนท (nats) [1] การวัดเอนโทรปีของแชนนอน เป็นการวัดขนาดของสารสนเทศซึ่งอยู่ในข้อความ

เมื่อไม่นานมานี้ ได้ปรากฏหลักฐานว่า เอนโทรปี นั้นได้ถูกค้นพบและนิยามในช่วงสงครามโลกครั้งที่สอง โดยแอลัน ทัวริง ที่ เบล็ทชลีย์ พาร์ค (Bletchley Park) ทัวริง ได้ตั้งชื่อปริมาณนี้ว่าน้ำหนักของหลักฐาน (weight of evidence) และใช้หน่วยวัดเป็น bans และ decibans (อย่าสับสนคำ "weight of evidence" นี้กับคำเดียวกันที่ใช้ในบทความทางด้านการอนุมานทางสถิติ หรือ statistical inference บัญญัติขึ้นโดย กู๊ด (I.J. Good) ซึ่งมีความหมายตรงกับคำที่ทัวริงใช้คือ "log-odds" หรือ "lods") ถึงแม้ว่า ทัวริง และ แชนนอน นั้นได้ทำงานร่วมกันในช่วงสงครามแต่ดูเหมือนว่าทั้งคู่นั้นต่างคนต่างพัฒนาแนวความคิดนี้ขึ้นมาด้วยตนเอง (สำหรับเอกสารอ้างอิงดู Alan Turing: The Enigma โดย แอนดรูว์ ฮอดจส์ Andrew Hodges)

ความสัมพันธ์กับเอนโทรปีของอุณหพลศาสตร์

เอนโทรปีของสารสนเทศ ที่พัฒนาต่อมาจากแนวความคิดดั้งเดิมของ แชนนอน นั้นมีความสัมพันธ์อย่างใกล้ชิดกับ เอนโทรปี ของ อุณหพลศาสตร์

ลุดวิก โบลทซ์แมน (Ludwig Boltzmann และ วิลลาร์ด กิบส์ (Willard Gibbs) นั้นมีส่วนสำคัญในการพัฒนาทางด้าน อุณหพลศาสตร์เชิงสถิติ (statistical thermodynamics) งานของเขานั้นเกิดจากความพยายามในการที่จะนำคำ เอนโทรปี จาก ทฤษฎีสารสนเทศมาใช้ เอนโทรปี จากแนวความคิดของ ทฤษฎีสารสนเทศ และ แนวความคิดของ อุณหพลศาสตร์เชิงสถิติ นี้มีความสัมพันธ์กันที่ลึกซึ้ง ตัวอย่างหนึ่งที่ใช้แสดงความสัมพันธ์ระหว่าง สารสนเทศ และ เอนโทรปีของอุณหพลศาสตร์ คือ ปีศาจของแมกซ์เวลล์ (Maxwell's demon) ซึ่งเป็นปิศาจเฝ้าตูดควบคุมการเลือกผ่านของโมเลกุล เพื่อสร้างการไหลของพลังงานสวนทางกับเอนโทรปีของอุณหพลศาสตร์ ในการแหกกฎข้อที่สองของอุณหพลศาสตร์ แต่ในขณะเดียวกัน ในการคุมตูดนั้นปีศาจก็ต้องการข้อมูล ที่แม่นยำ ซึ่งทั้งสองนี้หักล้างกันไปทำให้ปิศาจไม่สามารถสร้างความได้เปรียบทางอุณหพลศาสตร์สวนกฎข้อที่สองได้

ปริมาณที่ใช้วัดข้อมูลที่มีประโยชน์ อีกปริมาณหนึ่งก็คือ สารสนเทศร่วม (mutual information) ซึ่งเป็นปริมาณที่บ่งบอกถึงความขึ้นแก่กันทางสถิติของตัวแปรสุ่มสองตัว นิยามของสารสนเทศที่เกิดร่วมกันของเหตุการณ์   และ   คือ

 

โดยที่   คือ เอนโทรปีร่วม นิยามโดย

 

และ   คือ เอนโทรปีตามเงื่อนไข (conditional entropy) ของ   มีเงื่อนไขขึ้นกับค่าสังเกตการณ์ของ   ดังนั้น สารสนเทศร่วม สามารถตีความ หมายถึง ปริมาณของความไม่แน่นอนของค่า   ที่ลดลงเมื่อรู้ค่าที่แน่นอนของ   และในทางกลับกัน

ดูเพิ่ม

อ้างอิง

  1. Thomas A. Cover, Joy A Thomas Elements of Information Theory John Wiley & Sons, 1991

ทฤษฎ, สารสนเทศ, งก, ามภาษา, ในบทความน, ไว, ให, านและผ, วมแก, ไขบทความศ, กษาเพ, มเต, มโดยสะดวก, เน, องจากว, เด, ยภาษาไทยย, งไม, บทความด, งกล, าว, กระน, ควรร, บสร, างเป, นบทความโดยเร, วท, ดสำหร, บความหมายอ, ทฤษฎ, อม, งกฤษ, information, theory, เป, นสาขาหน, งใน, . lingkkhamphasa inbthkhwamni miiwihphuxanaelaphurwmaekikhbthkhwamsuksaephimetimodysadwk enuxngcakwikiphiediyphasaithyyngimmibthkhwamdngklaw krann khwrribsrangepnbthkhwamodyerwthisudsahrbkhwamhmayxun duthi thvsdikhxmul thvsdisarsneths xngkvs information theory epnsakhahnungin thvsdikhwamnacaepn aelakhnitsastrechingsthiti khxbkhayenuxhakhxngthvsdinicaekiywkhxngkbsarsneths exnothrpikhxngsarsneths rabbkarsuxsar karsngkhxmul thvsdixtrakarbidebuxn withyakarekharhslb sdswnsyyantxsyyanrbkwn karbibxdkhxmul karaekkhwamphidphlad aelahwkhxxun thiekiywkhxngkhaaeplthitamrachbnthit khux thvsdisarsneths ni macakkhawa information theory sungkhawa information epnkhaediywknkbthihmaythung sarsneths aetenuxngcakkhwamhmaykhxng information theory nncaekiywenuxngkb enuxkhwaminaengkhxngsyyan cungxaccaichkhawa thvsdikhxmul aethnkhwamhmaykhxngsarsneths thiepninaengkhxngenuxhakhawsar aela suxtwklang hruxsuxbnthukinbangkrnitwxyangkhxngkarnathvsdisarsnethsmaprayuktich idaek ZIP Files ekhruxngelnexmphisam xinethxrentkhwamerwsungdiexsaexl xupkrnsuxsarirsay xathi othrsphthmuxthux withyusuxsar ekhruxngelnsidi aelakarsuksaekiywkbhlumda epntn enuxha 1 prawti 2 khwamsmphnthkbexnothrpikhxngxunhphlsastr 3 duephim 4 xangxingprawti aekikhkhlxd xi aechnnxn idrbkarkhnannamwaepn bidaaehngthvsdisarsneths thvsdikhxngaechnnxnni epnthvsdiaerkthiidthakarwinicchypyhathangkarsuxsar inrupkhxngpyhakhnitsastrechingsthiti epnthvsdithiidepidhnthang ihwiswkrkarsuxsar samarthkhanwnkhnad hruxprimansungsudkhxngchxngsyyan xxkmainhnwybit bits thvsdisarsnethsthieraruckxyuinthukwnni epnthiyxmrbodythwipwa erimtncakphlngantiphimphkhxngaechnnxneruxngthvsdiechingkhnitsastrkhxngkarsuxsar The Mathematical Theory of Communication lnginwarsarthangethkhnikhebllsisetm Bell System Technical Journal chbbeduxnmithunayn inpi ph s 2491 kh s 1948 sungnganchinninn epnnganthiidsrangesrimtxmacak phlngankhxng aehrri naykhwisth Harry Nyquist aela ralf harthliy Ralph Hartley inngankhxngaechnnxn thithaihwiswkrrabbsuxsar samarthxxkaebbrabbsuxsarthimiprasiththiphaphsungkhunidnn aechnnxnidniyamexnothrpikhxngsarsnethsethakbH i p i log p i displaystyle mathbf H sum i p i log p i sutrniemuxnaipichkb aehlngkaenidsarsneths cathaihsamarthkhanwnkhnadkhxngchxngsyyan thicaepntxngichinkarsngkhxmulnn inrupkhxngrhsthansxngid odythalxkarithuminsmkarkhangtn epnthansxng exnothrpithiwdcaxyuinhnwybitechnkn aetthaepn lxkarithumthanthrrmchati hrux than e displaystyle e exnothrpithiwdcaxyuinhnwy aenth nats 1 karwdexnothrpikhxngaechnnxn epnkarwdkhnadkhxngsarsnethssungxyuinkhxkhwamemuximnanmani idprakthlkthanwa exnothrpi nnidthukkhnphbaelaniyaminchwngsngkhramolkkhrngthisxng odyaexln thwring thi eblthchliy pharkh Bletchley Park thwring idtngchuxprimanniwanahnkkhxnghlkthan weight of evidence aelaichhnwywdepn bans aela decibans xyasbsnkha weight of evidence nikbkhaediywknthiichinbthkhwamthangdankarxnumanthangsthiti hrux statistical inference byytikhunody kud I J Good sungmikhwamhmaytrngkbkhathithwringichkhux log odds hrux lods thungaemwa thwring aela aechnnxn nnidthanganrwmkninchwngsngkhramaetduehmuxnwathngkhunntangkhntangphthnaaenwkhwamkhidnikhunmadwytnexng sahrbexksarxangxingdu Alan Turing The Enigma ody aexndruw hxdcs Andrew Hodges khwamsmphnthkbexnothrpikhxngxunhphlsastr aekikhexnothrpikhxngsarsneths thiphthnatxmacakaenwkhwamkhiddngedimkhxng aechnnxn nnmikhwamsmphnthxyangiklchidkb exnothrpi khxng xunhphlsastrludwik oblthsaemn Ludwig Boltzmann aela willard kibs Willard Gibbs nnmiswnsakhyinkarphthnathangdan xunhphlsastrechingsthiti statistical thermodynamics ngankhxngekhannekidcakkhwamphyayaminkarthicanakha exnothrpi cak thvsdisarsnethsmaich exnothrpi cakaenwkhwamkhidkhxng thvsdisarsneths aela aenwkhwamkhidkhxng xunhphlsastrechingsthiti nimikhwamsmphnthknthiluksung twxyanghnungthiichaesdngkhwamsmphnthrahwang sarsneths aela exnothrpikhxngxunhphlsastr khux pisackhxngaemksewll Maxwell s demon sungepnpisacefatudkhwbkhumkareluxkphankhxngomelkul ephuxsrangkarihlkhxngphlngnganswnthangkbexnothrpikhxngxunhphlsastr inkaraehkkdkhxthisxngkhxngxunhphlsastr aetinkhnaediywkn inkarkhumtudnnpisacktxngkarkhxmul thiaemnya sungthngsxngnihklangknipthaihpisacimsamarthsrangkhwamidepriybthangxunhphlsastrswnkdkhxthisxngidprimanthiichwdkhxmulthimipraoychn xikprimanhnungkkhux sarsnethsrwm mutual information sungepnprimanthibngbxkthungkhwamkhunaekknthangsthitikhxngtwaeprsumsxngtw niyamkhxngsarsnethsthiekidrwmknkhxngehtukarn X displaystyle X aela Y displaystyle Y khux I X Y H X H Y H X Y H X H X Y H Y H Y X displaystyle I X Y H X H Y H X Y H X H X Y H Y H Y X odythi H X Y displaystyle H X Y khux exnothrpirwm niyamody H X Y x y p x y log p x y displaystyle H X Y sum x y p x y log p x y aela H X Y displaystyle H X Y khux exnothrpitamenguxnikh conditional entropy khxng X displaystyle X mienguxnikhkhunkbkhasngektkarnkhxng Y displaystyle Y dngnn sarsnethsrwm samarthtikhwam hmaythung primankhxngkhwamimaennxnkhxngkha X displaystyle X thildlngemuxrukhathiaennxnkhxng Y displaystyle Y aelainthangklbknduephim aekikhwithyakarsarsnethsxangxing aekikhThomas A Cover Joy A Thomas Elements of Information Theory John Wiley amp Sons 1991ekhathungcak https th wikipedia org w index php title thvsdisarsneths amp oldid 8390779, wikipedia, วิกิ หนังสือ, หนังสือ, ห้องสมุด,

บทความ

, อ่าน, ดาวน์โหลด, ฟรี, ดาวน์โหลดฟรี, mp3, วิดีโอ, mp4, 3gp, jpg, jpeg, gif, png, รูปภาพ, เพลง, เพลง, หนัง, หนังสือ, เกม, เกม