วันศุกร์ที่ 13 กันยายน พ.ศ. 2562

Internet of Things (IoT)

Internet of Things หรือ IoT


Internet of Things (IoT) คือ การที่อุปกรณ์อิเล็กทรอนิกส์ต่างๆ สามารถเชื่อมโยงหรือส่งข้อมูลถึงกันได้ด้วยอินเทอร์เน็ต โดยไม่ต้องป้อนข้อมูล การเชื่อมโยงนี้ง่ายจนทำให้เราสามารถสั่งการควบคุมการใช้งานอุปกรณ์อิเล็กทรอนิกส์ต่างๆ ผ่านทางเครือข่ายอินเตอร์เน็ตได้ ไปจนถึงการเชื่อมโยงการใช้งานอุปกรณ์อิเล็กทรอนิกส์ต่างๆ ผ่านทางเครือข่ายอินเตอร์เน็ตเข้ากับการใช้งานอื่นๆ จนเกิดเป็นบรรดา Smart ต่างๆ ได้แก่ Smart Device, Smart Grid, Smart Home, Smart Network, Smart Intelligent Transportation ทั้งหลายที่เราเคยได้ยินนั่นเอง ซึ่งแตกต่างจากในอดีตที่อุปกรณ์อิเล็กทรอนิกส์เป็นเพียงสื่อกลางในการส่งและแสดงข้อมูลเท่านั้น

กล่าวได้ว่า Internet of Things นี้ได้แก่การเชื่อมโยงของอุปกรณ์อัจฉริยะทั้งหลายผ่านอินเทอร์เน็ตที่เรานึกออก เช่น แอปพลิเคชัน แว่นตากูเกิลกลาส รองเท้าวิ่งที่สามารถเชื่อมต่อข้อมูลการวิ่ง ทั้งความเร็ว ระยะทาง สถานที่ และสถิติได้

นอกจากนั้น Cloud Storage หรือ บริการรับฝากไฟล์และประมวลผลข้อมูลของคุณผ่านทางออนไลน์ หรือเราเรียกอีกอย่างว่า แหล่งเก็บข้อมูลบนก้อนเมฆ เป็นอีกสิ่งหนึ่งที่เราใช้งานบ่อยๆแต่ไม่รู้ว่าเป็นหนึ่งในรูปแบบของ Internet of Things สมัยนี้ผู้ใช้นิยมเก็บข้อมูลไว้ในก้อนเมฆมากขึ้น เนื่องจากมีข้อดีหลายประการ คือ ไม่ต้องกลัวข้อมูลสูญหายหรือถูกโจรกรรม ทั้งยังสามารถกำหนดให้เป็นแบบส่วนตัวหรือสาธารณะก็ได้ เข้าถึงข้อมูลได้ทุกที่ทุกเวลาด้วยอุปกรณ์อิเล็กทรอนิกส์ใดๆผ่านเครือข่ายอินเตอร์เน็ต แถมยังมีพื้นที่ใช้สอยมาก มีให้เลือกหลากหลาย ช่วยเราประหยัดค่าใช้จ่ายได้อีกด้วย เนื่องจากเราไม่ต้องเสียเงินซื้ออุปกรณ์จัดเก็บข้อมูล เช่น ฮาร์ดไดร์ฟ หรือ Flash drive ต่างๆ

แนวคิด Internet of Things


เดิมมาจาก Kevin Ashton บิดาแห่ง Internet of Things ในปี 1999 ในขณะที่ทำงานวิจัยอยู่ที่มหาวิทยาลัย Massachusetts Institute of Technology หรือ MIT เขาได้ถูกเชิญให้ไปบรรยายเรื่องนี้ให้กับบริษัท Procter & Gamble (P&G)  เขาได้นำเสนอโครงการที่ชื่อว่า  Auto-ID Center ต่อยอดมาจากเทคโนโลยี RFID ที่ในขณะนั้นถือเป็นมาตรฐานโลกสำหรับการจับสัญญาณเซ็นเซอร์ต่างๆ( RFID Sensors) ว่าตัวเซ็นเซอร์เหล่านั้นสามารถทำให้มันพูดคุยเชื่อมต่อกันได้ผ่านระบบ Auto-ID ของเขา โดยการบรรยายให้กับ P&G ในครั้งนั้น Kevin ก็ได้ใช้คำว่า Internet of Things ในสไลด์การบรรยายของเขาเป็นครั้งแรก โดย Kevin นิยามเอาไว้ตอนนั้นว่าอุปกรณ์อิเล็กทรอนิกส์ใดๆก็ตามที่สามารถสื่อสารกันได้ก็ถือเป็น “internet-like” หรือพูดง่ายๆก็คืออุปกรณ์อิเล็กทรอนิกส์ที่สื่อสารแบบเดียวกันกับระบบอินเตอร์เน็ตนั่นเอง โดยคำว่า “Things” ก็คือคำใช้แทนอุปกรณ์อิเล็กทรอนิกส์ต่างๆเหล่านั้น



ต่อมาในยุคหลังปี 2000 มีอุปกรณ์อิเล็กทรอนิกส์ถูกผลิตออกจัดจำหน่ายเป็นจำนวนมากทั่วโลก จึงเริ่มมีการใช้คำว่า Smart ซึ่งในที่นี้คือ Smart Device, Smart Grid, Smart Home, Smart Network, Smart Intelligent Transportation ต่างๆเหล่านี้ ล้วนถูกฝัง RFID Sensors เสมือนกับการเติม ID และสมอง ทำให้มันสามารถเชื่อมต่อกับโลกอินเตอร์เน็ตได้ ซึ่งการเชื่อมต่อเหล่านั้นเองก็เลยมาเป็นแนวคิดที่ว่าอุปกรณ์เหล่านั้นก็ย่อมสามารถสื่อสารกันได้ด้วยเช่นกัน โดยอาศัยตัว Sensor ในการสื่อสารถึงกัน นั่นแปลว่านอกจาก Smart Device ต่างๆจะเชื่อมต่ออินเตอร์เน็ตได้แล้ว ยังสามารถเชื่อมต่อไปยังอุปกรณ์ตัวอื่นได้ด้วย

Internet of Things และ Big Data สัมพันธ์กันอย่างไร


ปัจจุบัน Internet of Things สามารถตอบสนองความต้องการทางด้านการใช้งานของเราได้มากขึ้น สาเหตุเพราะอุปกรณ์อิเล็กทรอนิกส์ต่างๆมีราคาถูกลง ทำให้เกิดการใช้งานจริงมากขึ้น มีการค้นพบ Use Case ใหม่ๆในธุรกิจ ทำให้ผู้ผลิตได้เรียนรู้และคอยแก้โจทย์ เพื่อเพิ่มประสิทธิภาพให้ตรงใจผู้ใช้ ก่อให้เกิดนวัตกรรมใหม่ๆ ยิ่งไปกว่านั้น Internet of Things มีการเชื่อมโยงกันอย่างเป็นระบบ เราจึงเริ่มเห็นธุรกิจที่หันมาให้ความสนใจ Internet of Things ในแง่ที่มันสามารถช่วยแก้ปัญหาทางธุรกิจ ทางสังคม และช่วยแก้ไขปัญหาชีวิตประจำวันได้ โดยการนำเอาข้อมูลหรือ Big Data เข้ามาใช้ในการพัฒนาเพื่อตอบสนองความต้องการของแต่ละรูปแบบ ถึงตรงนี้แล้วคงจะสงสัยใช่มั้ยคะว่า Big data เกี่ยวข้องอย่างไรกับ Internet of Things


Big Data คือ ข้อมูลขนาดมหาศาลที่เกิดขึ้น ไม่มีโครงสร้างชัดเจน หนึ่งในตัวอย่างที่เราจะเห็นได้ง่ายคือข้อมูลจากยุคโซเชียล ผู้ใช้เป็นคนสร้างขึ้นมา ซึ่งนอกจากเนื้อหาในโลกออนไลน์แล้ว ยังมีข้อมูลอีกประเภทหนึ่งคือ   ข้อมูลจากอุปกรณ์ที่เราใช้หรือสวมใส่ เช่น สายรัดวัดชีพจรตอนออกกำลังกาย ตัวอย่างเช่น แบรนด์ไนกี้ตั้งโจทย์ขึ้นมาว่า เราจะรู้ได้อย่างไรว่าลูกค้าซื้อรองเท้าแล้วนำไปใส่วิ่งจริง แต่ตอนนี้พิสูจน์ได้แล้วเพราะว่าไนกี้ใช้ IoT กับสินค้าของเขา ยิ่งไปกว่านั้นตอนนี้ลูกค้าไม่ได้ผลิตข้อมูลที่นำไปสู่ Big Data จากการโพสต์ คอมเมนต์ กดไลค์ หรือแชร์เพียงอย่างเดียว แต่เกิดจากกิจกรรมในไลฟ์สไตล์ที่ธุรกิจหรือแบรนด์นำไปจับคู่กับสินค้า แล้วสร้างเป็นเนื้อหาที่โดนใจผู้รับสารขึ้นมา สิ่งสำคัญคือ ข้อมูลพวกนี้บอกว่ามีอะไรเกิดขึ้นได้อย่างเดียว สิ่งสำคัญกว่าคือ ธุรกิจ องค์กร และแบรนด์ต่างๆ จะเปลี่ยนข้อมูลพวกนี้เป็นประโยชน์ได้อย่างไร ทำอย่างไรข้อมูลจึงจะสามารถบอกได้ว่า ‘ทำไมสิ่งต่างๆเหล่านั้นถึงเกิดขึ้น’ จุดนี้จึงทำให้เรารู้จักความต้องการที่แท้จริงของผู้บริโภค (Consumer Insight) และรู้ว่าต้องทำอย่างไรให้ธุรกิจหรือบริการของเราจะมีประสิทธิภาพยิ่งขึ้น

ประโยชน์และความเสี่ยง


เทคโนโลยี Internet of Things มีประโยชน์ในหลายด้านทั้งเรื่องการเก็บข้อมูลที่แม่นยำและเป็นปัจจุบัน ช่วยลดต้นทุน แถมยังช่วยเพิ่มผลผลิตของพนักงานหรือผู้ใช้งานได้ แม้ว่าแนวโน้มของ IoT มีแต่จะเพิ่มขึ้นด้วยคุณาประโยชน์ตามที่ได้กล่าวมาแล้ว แต่ประโยชน์ใดๆนั้นก็มาพร้อมกับความเสี่ยง เพราะความท้าทายในการรักษาความปลอดภัยของเครือข่ายใหม่ที่เกิดขึ้นนั้น จะผลักดันให้ผู้เชี่ยวชาญมีการรับมือทางด้านความปลอดภัยมากขึ้น ในทางตรงกันข้ามแฮกเกอร์หรือผู้ไม่หวังดีก็ทำงานหนักเพื่อที่จะเข้าควบคุม โจมตีเครือข่าย หรือเรียกค่าไถ่ในช่องโหว่ที่ IoT มีอยู่ ฉะนั้นผู้เชี่ยวชาญด้านความปลอดภัยทาง IoT จึงจำเป็นต้องพัฒนามาตรการ และระบบรักษาความปลอดภัยไอทีควบคู่กันไป เพื่อให้ธุรกิจและการใช้งาน IoT สามารถขับเคลื่อนต่อไปได้

Augmented Reality (AR) and Virtual Reality (VR)

Augmented Reality (AR) and Virtual Reality (VR)


Augmented Reality (AR)

         คำว่า Augmented แปลว่าเพิ่มหรือเติม  ส่วน Reality แปลว่าความจริง   นั่นก็คือ เทคโนโลยีการผสมผสานโลกเสมือน (Virtual World) เพิ่มเข้าไปในโลกจริง (Physical World) เพื่อทำให้เกิดการกลมกลืนกันมากที่สุดจนแยกไม่ออก     
ความเป็นมาของ  AR
        เทคโนโลยีนี้ได้ถูกพัฒนามาตั้งแต่ปี ค.ศ. 2004 จัดเป็นแขนงหนึ่งของงานวิจัยด้านวิทยาการคอมพิวเตอร์ ว่าด้วยการเพิ่มภาพเสมือนของโมเดลสามมิติที่สร้างจากคอมพิวเตอร์ลงไปในภาพที่ถ่ายมาจากกล้องวิดีโอ กล้องเว็บแคม หรือกล้องในโทรศัพท์มือถือ แบบเฟรมต่อเฟรมด้วยเทคนิคทางด้านคอมพิวเตอร์กราฟิก แต่ด้วยข้อจำกัดทางเทคโนโลยีจึงมีการใช้ไม่แพร่หลายเท่าไหร่  แต่ปัจจุบันเทคโนโลยีมือถือ และการสื่อสารข้อมูลไร้สาย รวมทั้งการประมวลต่าง ๆ มีความรวดเร็วขึ้นและมีราคาถูก จึงทำให้อุปกรณ์สมาร์ทโฟน และแทบเล็ต ทำให้เทคโนโลยีที่อยู่แต่ในห้องทดลอง กลับกลายมาเป็นแอพที่สามารถดาวน์โหลดมาใช้งานกันง่าย ๆ ไปแล้ว  โดยในช่วง 2-3 ปีมานี้ AR เป็นเรื่องที่ถูกกล่าวถึงอยู่เป็นระยะ แม้จะไม่ฮอตฮิตเหมือนแอพตัวอื่น ๆ ก็ตาม  แต่อนาคตยังไปได้อีกไกล  ทั้ง VR และ AR สามารถนำมาประยุกต์ใช้งานได้กว้างขวางหลากหลาย ทั้งด้าน อุตสาหกรรม การทหาร การแพทย์ การตลาด การบันเทิง การสื่อสาร และ การศึกษา
Augmented Reality
         AR เป็นเทคโนโลยีใหม่ ที่ผสานเอาโลกแห่งความเป็นจริง (Real) เข้ากับโลกเสมือน (Virtual) โดยผ่านอุปกรณ์ทางด้านฮาร์ดแวร์รวมกับการใช้ซอฟต์แวร์ต่าง ๆ ทำให้สามารถมองเห็นภาพที่มีลักษณะเป็นวัตถุ (Object) แสดงผลในจอภาพกลายเป็นวัตถุ 3 มิติ ลอยอยู่เหนือพื้นผิวจริง มีการแสดงผลที่แสดงวัตถุมีการเคลื่อนไหว ดูมีมิติมีความตื่นเต้นเร้าใจ โดยสามารถนำรูปแบบใหม่ของการนำเสนอสินค้าลอยออกมานอกจอคอมพิวเตอร์ ซึ่งเป็นการนำเสนอรูปแบบใหม่ในโลกสังคมออนไลน์หรือการตลาดออนไลน์อีกทางหนึ่ง ว่ากันว่า นี่จะเป็นการเปลี่ยนแปลงโฉมหน้าสื่อยุคใหม่ พอๆ กับเมื่อครั้งเกิดอินเทอร์เน็ตขึ้นในโลกก็ว่าได้ หากเปรียบสื่อต่าง ๆ เสมือน “กล่อง” แล้ว AR คือการเด้งออกมาสู่โลกใหม่ภายนอกกล่องที่สร้างความตื่นเต้นเร้าใจ ในรูปแบบ Interactive Media โดยแท้จริง
          เทคโนโลยีเสมือนจริงนี้ มีหลักการทำงานโดยสามารถแบ่งประเภทตามส่วนวิเคราะห์ภาพ (Image Analysis) เป็น    2  ประเภท ได้แก่ การวิเคราะห์ภาพโดยอาศัย Marker เป็นหลักในการทํางาน (Marker based AR)   และการวิเคราะห์ภาพโดยใช้ลักษณะต่าง ๆ ที่อยู่ในภาพมาวิเคราะห์ (Marker-less based AR) หลักการของเทคโนโลยีเสมือนจริง ประกอบด้วย
  1. Marker (หรือที่เรียกว่า Markup)
  2. กล้องวิดีโอ เว็บแคม  กล้องโทรศัพท์มือถือ หรือ ตัวจับ Sensor อื่นๆ
  3. ส่วนการแสดงผลภาพ เช่นจอภาพจากอุปกรณ์แสดงผล
  4. ซอฟต์แวร์ส่วนประมวลผลเพื่อวัตถุแบบสามมิติ object 3D
พื้นฐานหลักของ AR  
        ใช้หลักการของการตรวจจับการเคลื่อนไหว (Motion Detection) การตรวจจับการเต้นหรือการเคาะ (Beat    Detection)  การจดจําเสียง   (Voice Recognize) และการประมวลผลภาพ (Image Processing) โดยนอกจากการตรวจจับการเคลื่อนไหวผ่าน Motion Detect  แล้ว การตอบสนองบางอย่างของระบบผ่านสื่อนั้น  ต้องมีการตรวจจับเสียงของผู้ใช้และประมวลผลด้วยหลักการ Beat    Detection เพื่อให้เกิดจังหวะในการสร้างทางเลือกแก่ระบบ เช่น    เสียงในการสั่งให้ตัว  Interactive Media ทํางาน
        ทั้งนี้การสั่งการด้วยเสียงจัดว่าเป็น  AR  และในส่วนของการประมวลผลภาพนั้น เป็นส่วนเสริม เพราะเน้นไปที่การทํางานของปัญญาประดิษฐ์ (Artificial Intelligent: AI)   ในการสื่ออารมณ์กับผู้ใช้บริการผ่านสีและรูปภาพ

        เทคโนโลยี AR นี้จะสามารถทำให้ผู้ใช้เห็นภาพเสมือนจริงได้รอบ โดยไม่จำเป็นจะต้องเดินทางไปสถานที่จริง หากในอนาคตเทคโนโลยีจะมีความก้าวหน้าเป็นอย่างไร สิ่งสำคัญที่สุดคือความก้าวหน้าของมนุษย์ก็ต้องพัฒนาควบคู่กันไปด้วย หากเรามีเทคโนโลยีที่ล้ำสมัยให้ใช้ แต่มนุษย์ไม่ได้เจริญตามเทคโนโลยีด้วย การดำรงชีวิตของมนุษย์ก็จะไม่เป็นปกติสุขได้เลย

Virtual Reality (VR)

       ระบบเสมือนจริง หรือเทคโนโลยีความเป็นจริงเสมือน (Virtual Reality หรือ VR) เป็นเทคโนโลยีที่ถูกสร้างขึ้นเพื่อ จำลองสภาพแวดล้อมต่างๆ ทั้งจากสภาพแวดล้อมจริง และจากในจินตนาการ ขึ้นมาด้วยเทคโนโลยีคอมพิวเตอร์ โดยไม่ได้จำลองเพียงภาพและเสียงเท่านั้น แต่ยังรวมถึงประสาทสัมผัสด้านอื่นด้วย ด้วยการใส่อุปกรณ์นำเข้าเช่น ถุงมือ เมาส์ เพื่อการรับรู้ถึงแรงป้อนกลับจากการสัมผัสสิ่งต่างๆ ในโลกเสมือนจริงที่สร้างขึ้นโดยเทคโนโลยีคอมพิวเตอร์ เช่น หากสัมผัสเก้าอี้ จะต้องรับรู้ถึงมวลความแข็งของเก้าอี้ และอุณหภูมิของวัสดุเป็นต้น เทคโนโลยีความเป็นจริงเสมือนนั้น สามารถแยกออกจากเทคโนโลยีประเภทอื่นที่คล้ายกันได้อย่างชัดเจนด้วยความจดจ่อทางร่างกาย (Physical Immersion) กล่าวคือสำหรับการใช้เทคโนโลยีความเป็นจริงเสมือน(VR) ผู้ใช้จะรู้สึกตัดขาดจากโลกจริง และ ความรู้สึกถึงความมีอยู่ (Psychological Presence) โดยที่ความจดจ่อทางร่างกายอยู่ในระดับระบบสัมผัสเต็มรูปแบบ  (Fully Immersive System)  ผู้ใช้รู้สึกตัดขาดจากโลกจริงอย่างสมบูรณ์แบบโดยสภาพแวดล้อมเสมือนจริง กล่าวคือผู้ใช้จะรู้สึกเหมือนอยู่ในโลกจริงแต่ ในความเป็นจริงแล้วอยู่ในโลกที่ถูกสร้างขึ้นด้วยเทคโนโลยีความเป็นจริงเสมือน ในขณะที่เทคโนโลยีอื่น เช่น AR หรือ WoW  นั้นผู้ใช้ยังคงสัมผัสอยู่กับโลกจริง ระดับความจดจ่อทางร่างกายยังคงรับรู้ถึง ความมีอยู่ ในโลกจริง กล่าวคือเพียงแค่สัมผัสได้ถึงความเสมือนจริงซึ่งอาจจะเป็นรับรู้ด้วยการมอง หรือการได้ยิน แต่ยังไม่ถึงขั้นตัดขาดโลกจริง ซึ่งหากแบ่งประเภทของความเป็นจริงเสมือนออกตามวิธีการติดต่อกับผู้ใช้งาน สามารถแบ่งออกเป็น 5ประเภท ดังนี้

·    Desktop VR or Window on World Systems (WoW)เป็นการใช้จอภาพธรรมดา(จอคอมพิวเตอร์ทั่วไป) ในการแสดงภาพเสมือนจริง

.      Video Mapping เป็นการนำวีดีโอมาเป็นอุปกรณ์นำเข้าข้อมูล และใช้เทคนิคคอมพิวเตอร์ในการแสดงผลกราฟิกแบบ WoW ซึ่งมีทั้งแบบสองมิติและสามมิติ ทำให้ผู้ใช้สามารถเห็นตัวเอง และการเปลี่ยนแปลงของตนเองจากจอภาพได้
·   Immersive Systemsเป็นเทคโนโลยีความเป็นจริงเสมือนสำหรับส่วนบุคคล โดยใช้จอภาพสวมศีรษะ ในการแสดงภาพและเสียงของโลกเสมือน
·       Telepresenceเป็นระบบเสมือนจริงที่มีการติดตั้งอุปกรณ์ตรวจจับสัญญาณระยะไกลไว้ที่อุปกรณ์หนึ่ง ซึ่งอาจจะเป็นหุ่นยนต์ หรืออุปกรณ์อิเล็กทรอนิกส์อื่น  เพื่อให้เชื่อมต่อการใช้งานเข้ากับผู้ใช้
·     Augmented/Mixed Reality Systems : การรวมกันของ Telepresence กับ Virtual Reality Systems โดยใช้ Telepresence เป็นตัวนำเข้าข้อมูล และ Virtual Reality Systems ในการแสดงผลภาพเสมือนจริงให้กับผู้ใช้ได้เห็น เช่นการแสดงภาพเสมือนจริงสมองของคนไข้ให้กับ ศัลยแพทย์ชม

Quantum Computing

Quantum Computing



     Quantum Computing ก็คือระบบคอมพิวเตอร์ที่เปลี่ยนจากการทำงานบนแผงวงจร มาใช้คุณสมบัติพิเศษของอะตอมแทน โดยจากเดิมที่คอมพิวเตอร์ปัจจุบันจะแทนค่าข้อมูลด้วย Bit อันประกอบด้วยตัวเลข 0 กับ 1 ทีละตัวแล้วนำไปประกอบกัน แต่ระบบ Quantum Computing จะใช้อะตอมที่มีคุณสมบัติของ Quantum Bit หรือ Qubit สามารถประมวลผลเป็นตัวเลข 0 หรือ 1 พร้อมกันได้ คุณสมบัติดังกล่าวทำให้แต่ละ Qubit ทำงานได้เร็วกว่า Bit อย่างมหาศาล นอกจากนี้ Qubit ยังสามารถสื่อสารกับอะตอมที่เป็น Qubit ด้วยกันได้โดยไม่ต้องผ่านสื่อกลาง ทำให้ Qubit สามารถประมวลผลร่วมกันได้ราบรื่นและรวดเร็ว รวมถึงรองรับงานแบบ Multitasking ได้ง่ายกว่า โดยเมื่อปี 2015 มีประกาศจาก Google ว่า Quantum Computer ที่พวกเขาพัฒนาขึ้น มีความเร็วมากกว่า PC ทั่วไปถึง 100 ล้านเท่า!!

Quantum Computing นั้นมีประวัติความเป็นมาอันยาวนาน ทั้งยังมีความเชื่อมโยงกับฟิสิกส์เชิงทฤษฎี (Theoretical Physics) อย่างเหนียวแน่น โดยเฉพาะกลศาสตร์ควอนตัม (Quantum Mechanics) และหลังจากนั้นก็ได้มีการการวิจัยและพัฒนาสืบทอดต่อๆ กันมาเป็นเวลาหลายทศวรรษโดยนักฟิสิกส์และวิศวกร ซึ่งในขณะนี้เรามีเครื่องไม้เครื่องมือไม่มากนัก แต่มีแนวโน้มว่าเครื่องมือที่ทำหน้าที่เป็นแบบจำลอง อาจจะกลายเป็นอุปกรณ์สำคัญสำหรับ Quantum Computer ในอนาคตอันใกล้นี้

คอมพิวเตอร์ที่เรารู้จักกันดีนั้นส่วนใหญ่ก็มีตั้งแต่คอมพิวเตอร์ตั้งโต๊ะ (Desktop) ขนาดใหญ่ไปจนถึง iPhone X ซึ่งพวกมันต่างก็มีการทำงานในลักษณะเดียวกันโดยที่ไม่ต้องคำนึงถึงเรื่องของพลังงานหรือขนาดของพวกมัน ซึ่งคอมพิวเตอร์แบบปกติทั่วไปนั้นจะดำเนินการโดยการเก็บข้อมูลเป็นบิต (bit) ที่โดยทั่วไปจะอยู่ในรูปของ 0 หรือ 1

แต่เนื่องจากการคำนวณจะแสดงออกในรูปแบบของความสัมพันธ์แบบเชิงเส้น (Linear) - โดยการสำรวจความเป็นไปได้ในแต่ละครั้งนั้นจะมีการสำรวจตามลำดับ (Explored Sequentially) ซึ่งคอมพิวเตอร์เหล่านี้จำเป็นที่จะต้องใช้เวลาในการแก้ปัญหาทางคณิตศาสตร์ที่ซับซ้อน ในขณะที่ Quantum Computer สามารถทำการคำนวณหลายๆ อย่างพร้อมกันได้ รวมทั้งยังสร้างผลลัพธ์ในอัตราที่เร็วกว่าคอมพิวเตอร์ทั่วไปอย่างเทียบกันไม่ติดเลยทีเดียว

Quantum Computer แตกต่างจากคอมพิวเตอร์แบบดั้งเดิมในแง่ที่ว่า พวกมันมีหลักการทางวิทยาศาสตร์ที่แตกต่างกันโดยสิ้นเชิง กล่าวคือ ในโลกที่มีอนุภาพที่เล็กกว่าอะตอม (Subatomic World) จะมีบางปรากฏการณ์ที่แปลกและ "ขัดกับสามัญสำนึก" (Counterintuitive) ซึ่งจะไม่มีปรากฏให้เห็นในโลกแห่งวัตถุ

ยกตัวอย่างเช่น อนุภาคย่อยของอะตอม ที่เรียกว่า โฟตอน (Photon) จะมีพฤติกรรมที่เป็นทั้งอนุภาค (Particle) และเป็นคลื่น (Wave) มันสามารถอยู่ในสถานะที่มากกว่าหนึ่งสถานะในเวลาเดียวกันได้อย่างไร? เพิ่มความคิดที่ซับซ้อนเข้าไปอีกนั่นก็คือ คุณสมบัติทางกายภาพของอนุภาคย่อยของอะตอม (Subatomic Particle) นั้นไม่มีตัวตน นอกเสียจากว่าพวกเขาจะถูกสังเกตโดยตรง (Directly Observed) ในขณะเดียวกัน "การพัวพันในเชิงควอนตัม" หรือ Quantum Entanglement ก็ได้มีการอธิบายถึงวิธีที่อนุภาคสามารถสื่อสารซึ่งกันและกัน โดยไม่ต้องผ่านตัวกลาง แม้ว่าอนุภาคทั้งสองจะอยู่ห่างไกลกันแค่ไหนก็ตาม 

แน่นอนว่าหลักการเหล่านี้มันยากที่จะโน้มน้าวจิตใจของคุณให้เชื่อในเรื่องดังกล่าวได้ แม้แต่นักฟิสิกส์อย่าง Richard Feynman ที่ได้รับรางวัลโนเบล ยังได้เคยกล่าวไว้ว่า "ฉันคิดว่า ฉันสามารถพูดได้เลยว่าไม่มีใครเข้าใจกลศาสตร์ควอนตัม (Quantum Mechanics)"

แต่ไม่ว่าพวกเขาจะทำให้คุณรู้สึกอย่างไรก็ตาม นักวิจัยก็ได้พยายามสร้างลักษณะทางกายภาพของคุณสมบัติเหล่านี้ในเครื่องมือที่เราเรียกกันว่าคอมพิวเตอร์เชิงควอนตัม (Quantum Computer)

Quantum Computer ทำงานอย่างไร?

ในขณะที่คอมพิวเตอร์แบบคลาสสิคจะมีหน่วยย่อยที่สุดของข้อมูลที่เรียกว่า บิต (Bit) ส่วนคอมพิวเตอร์เชิงควอนตัมจะมีหน่วยประมวลผลที่เรียกว่า คิวบิต (Qubit) ซึ่งย่อมาจากควอนตัมบิต (Quantum bit) นั่นเอง

โดยคอมพิวเตอร์แบบคลาสสิคจะแทนค่าข้อมูลด้วย Bit ที่ประกอบด้วยค่า 1 หรือ 0 ทีละตัว แต่คอมพิวเตอร์เชิงควอนตัมจะใช้คุณสมบัติของคิวบิตที่สามารถประมวลผลค่า 1 และ 0 ได้ในเวลาเดียวกัน หรือสิ่งที่นักฟิสิกส์เรียกกันว่า "การซ้อนทับของควอนตัม (Quantum Superposition) ด้วยค่า 1 และ 0" ซึ่งคิวบิตที่ว่านี้สามารถมีค่าได้ทั้งสองสถานะพร้อมๆ กัน

นี่ไม่ได้เป็นการกล่าวตรงๆ ว่าคิวบิตนั้นมีค่าเป็นทั้ง 1 และ 0 ได้ในเวลาเดียวกัน – แต่ก็คงไม่ใช่เรื่องที่ผิด อย่างไรก็ตามมันจะปรากฏในรูปแบบที่ชัดเจนก็ต่อเมื่อถูกเราสังเกตแล้วเท่านั้น เมื่อสถานะซ้อนทับที่เรียกว่า Superposition ถูกรบกวนจากภายนอกก็จะเกิดการยุบตัวของสถานะ (Collapses) ซึ่งคุณก็จะได้รับความน่าจะเป็นในการค้นพบความจริงที่มีค่าเป็น 1 หรือ 0 อย่างใดอย่างหนึ่ง แต่ในทางปฏิบัติแล้ววิธีนี้จะถูกนำมาใช้งานอย่างไร?

ยกตัวอย่างเช่น ในคอมพิวเตอร์ทั่วไป ถ้าเรามี 2 บิต เมื่อนำมารวมเข้าด้วยกันก็จะได้ตัวเลขเป็น 00, 01, 10 หรือ 11 และจะมีเพียงแค่หนึ่งสถานะจากสถานะเหล่านี้เท่านั้น ในช่วงเวลาหนึ่ง ส่วน Quantum Computer ที่มี 2 คิวบิต มันจะสามารถมีสถานะย่อยทั้งหมดที่เป็นไปได้ก็คือ 00, 01, 10 และ 11 ในเวลาเดียวกัน

เมื่อคิวบิตจำนวนมากทำงานควบคู่ไปกับขั้นตอนของการประมวลผล การรวมกันของสถานะที่สามารถมีอยู่ได้ในเวลาเดียวกันนั้นจะมีการเพิ่มขึ้นอย่างรวดเร็ว ยกตัวอย่างเช่น ในเครื่องมือที่มี 3 คิวบิต เราจะได้ระบบที่อยู่ในสภาวะซ้อนทับของ 8 สถานะย่อย หรือหากเพิ่มเป็น 4 คิวบิต สถานะย่อยทั้งหมดที่เป็นไปได้ก็คือ 16 สถานะย่อย และหากเพิ่มจำนวนเป็น 32 คิวบิต สำหรับเครื่องมือที่แข็งแกร่งนั้น เราสามารถที่จะมีสถานะย่อยที่เป็นไปได้รวมทั้งหมดถึง 4.3 พันล้านสถานะย่อย ในเวลาเดียวกัน

Dr. Talia Gershon ของ IBM แสดงให้เห็นถึงประสิทธิภาพที่เพิ่มขึ้นของคอมพิวเตอร์เชิงควอนตัม โดยการเปรียบเทียบกับที่นั่งของแขกรอบๆ โต๊ะอาหาร ถึงความเป็นไปได้ที่จะมีที่นั่งครบทั้งสิบคนรวมถึงวิธีที่ดีที่สุดที่จะใช้ในการจัดการกับพวกเขาคืออะไร?

ในขณะที่คอมพิวเตอร์แบบคลาสสิคจะพยายามแก้ไขปัญหานี้ โดยการค้นหาชุดค่าผสมที่มีความเป็นไปได้ทั้งหมดตามลำดับ จากนั้นก็ทำการเปรียบเทียบพวกมัน แต่สำหรับคอมพิวเตอร์เชิงควอนตัมนั้น มันสามารถจำลองชุดค่าผสมได้ทั้งหมด 3.6 ล้านชุด ในเวลาเดียวกัน รวมถึงทำการค้นหาคำตอบที่ดีที่สุดในเกือบจะทันที ด้วยเหตุผลนี้ ที่ทำให้การประมวลผลแบบควอนตัม (Quantum Computing) ไม่เพียงแต่จะหมายถึง การสร้างคอมพิวเตอร์ที่ทำงานได้เร็วขึ้น แต่มันยังเป็นคอมพิวเตอร์ที่มีการทำงานขั้นพื้นฐานในวิธีที่แตกต่างจากคอมพิวเตอร์แบบคลาสสิกอีกด้วย

Quantum Computer มีลักษณะอย่างไร? และถูกสร้างขึ้นด้วยวิธีใด? 

มันมีความคล้ายคลึงกันอย่างน่าประหลาด ระหว่างภาพซีเปียของคอมพิวเตอร์คลาสสิครุ่นแรกกับวิศวกรรมคอมพิวเตอร์ควอนตัมตัวแรก ที่ผสมผสานรวมกันจนกลายเป็นเครื่องมืออย่างที่เห็นในทุกวันนี้ แต่ภายใต้โครงสร้างเหล่านั้นกลับเต็มไปด้วยเทคโนโลยีสุดล้ำเกินกว่าที่คนทั่วไปจะจินตนาการได้

คิวบิตแบบเดี่ยวๆ นั้นประกอบไปด้วยสิ่งที่นักฟิสิกส์เรียกกันว่า ระบบควอนตัมเชิงกล (Quantum-Mechanical System) สองระดับ โดยอนุภาคย่อยของอะตอม (Subatomic Particle) แบบเดี่ยวๆ นั้นสามารถที่จะเปลี่ยนจากภาวะปกติ (Ground State) ไปเป็นสถานะกระตุ้น (Excited State) ซึ่งเป็นสภาพของอะตอมที่มีอิเล็กตรอนอยู่ในระดับพลังงานที่สูงกว่า เมื่อได้รับพลังงานจากภายนอก

อนุภาคที่เป็นองค์ประกอบของอะตอม จะประกอบไปด้วยโปรตอน (Proton) นิวเคลียส (Nucleus) หรือแม้แต่อิเล็กตรอน (Electron) ซึ่งแต่ละตัวจะมีค่าเทียบเท่า 1 และ 0 ได้ในเวลาเดียวกัน ยกตัวอย่างเช่น นิวเคลียส ที่แสดงให้เห็นสถานะทางควอนตัมเป็น 1 หรือ 0 ผ่านการวางตัวตามทิศของสนามแม่เหล็กที่มีทั้งแบบสปินขึ้น (Spin-up) หรือสปินลง (Spin-down)

มีหนึ่งในการทดลองที่นักวิทยาศาสตร์ได้ใช้อะตอมของฟอสฟอรัสแบบเดี่ยวๆ (Single Phosphorus) ที่ถูกห่อหุ้มไว้อย่างระมัดระวังภายในชิปซิลิคอน (Silicon Chip) และติดตั้งไว้กับทรานซิสเตอร์ตัวเล็กๆ ในขณะที่เมื่อสองปีที่แล้ว MIT ก็ได้ทำการทดลองกับคิวบิตที่อาศัยการดึงเอาอิเล็กตรอนออกจากอะตอมนี้และทำให้ลอยตัวอยู่ในพื้นที่ว่างโดยใช้สนามแม่เหล็กไฟฟ้า

สำหรับอิเล็กตรอนที่จะใช้ในตัวอย่างนี้ ในขั้นตอนแรกนั้นมันจะต้องลอยตัวอยู่ในสนามแม่เหล็กที่แข็งแกร่ง โดยใช้แม่เหล็กที่ใช้ตัวนำยิ่งยวด (Superconducting Magnets) หรือโซลินอยด์ (Solenoid) ขนาดใหญ่ แล้วลดอุณหภูมิของสภาพแวดล้อมลงจนใกล้จุดศูนย์สัมบูรณ์ (Absolute zero) เพื่อให้มีความเสถียร เนื่องจากในสภาพแวดล้อมที่อุณหภูมิห้องอนุภาคต่างๆ ที่ใช้เป็นคิวบิตนั้น จะมีการหมุนอย่างดุเดือดระหว่างที่สปินขึ้น (Spin-up) และสปินลง (Spin-down) หรือในขณะที่มีสถานะเป็น 1 และ 0 ดังนั้น อุณหภูมิที่ 0.0015 เคลวิน (ที่อุณหภูมิต่ำกว่า -273 องศาเซลเซียส) จึงเป็นสิ่งจำเป็นต่อการจัดการกับอนุภาคเหล่านี้ ไม่ว่าจะอยู่ในสภาวะ Spin-up หรือ Spin-down

ในช่วงเวลานี้ จากสภาพแวดล้อมดังกล่าว เราสามารถนำพลังงานไปใช้กับอิเล็กตรอนได้ โดยส่งผ่านไมโครเวฟที่มีการสะท้อนความถี่ของสนามแม่เหล็ก - เพื่อบันทึกข้อมูลและเปลี่ยนจากการหมุนลง (Spin-down) เป็นหมุนขึ้น (Spin-up) หรือในทางกลับกัน

การซ้อนทับของควอนตัม (Quantum Superposition) ทำได้โดยการกระตุ้นคิวบิตด้วยพลังงานที่มีลักษณะเป็นสัญญาณพัลส์ (Pulse) แล้วก็ทำการหยุด ดังนั้นอิเล็กตรอนจึงหยุดอยู่ตรงกลางอยู่ระหว่างการ Spin-down และ Spin-up โดยการซ้อนทับ (Superposition) นั้น หมายถึงวิธีการที่ทำให้คิวบิตสามารถมีหลายสถานะพร้อมกัน เพื่อประมวลผลข้อมูลและทำการคำนวณ ด้วยการอ่านข้อมูลหลังจากที่นำออกมาจากทรานซิสเตอร์ (Transistor)

เหตุผลหลักๆ ที่ทำให้คอมพิวเตอร์ควอนตัมจะต้องมีขนาดที่ใหญ่มากๆ แม้ว่างานส่วนใหญ่ของมันจะเป็นการจัดการกับส่วนที่มีขนาดเล็กมากๆ อย่างอนุภาคย่อยของอะตอมนั้น ก็เนื่องมาจากความจำเป็นที่จะต้องใช้เครื่องจักรที่จำเป็นในการเข้าถึงอุณหภูมิที่ต่ำจนใกล้ถึงศูนย์องศาสัมบูรณ์ (Absolute Zero) โดยใช้เทคนิค Dilution refrigerator - และเพราะเหตุนี้ จึงมีความเป็นไปได้ว่าในอนาคตอันใกล้ มนุษย์จะสามารถสร้างคอมพิวเตอร์ควอนตัมที่มีขนาดใกล้เคียงกับสมาร์ทโฟนที่มีขนาดบางที่สุดเท่าที่จะเป็นไปได้

การประมวลผลแบบควอนตัม (Quantum Computing) ทำประโยชน์อะไรให้กับเราได้บ้าง?

แม้ว่า Quantum Computer ส่วนใหญ่จะไม่มีโอกาสได้ถูกติดตั้งให้กับกลุ่มผู้บริโภคโดยทั่วไปหรือแม้กระทั่งธุรกิจที่มีการนำเทคโนโลยีเหล่านี้เข้ามาเกี่ยวข้องในการดำเนินธุรกิจ (Business Technology) ที่เราใช้ในชีวิตประจำวัน เช่น สมาร์ทโฟน หรือ คอมพิวเตอร์แบบ 2-in-1 (2-in-1 Devices) แต่นี่ก็ไม่ได้หมายความว่า คนทั่วไปอย่างเราๆ จะไม่สามารถเข้าถึงหรือแม้แต่จะใช้งานพวกมันได้

แม้ว่าจะเป็นการมีส่วนร่วมในการดำเนินการระดับสูงสุดที่ดูเหมือนว่าจะเป็นทักษะเหนือกว่าคนอื่น แต่บริษัทต่างๆ ที่มีการแข่งขันกันในด้านนี้ต่างก็มีความพยายามเป็นอย่างมากในการที่จะทำให้เทคโนโลยีดังกล่าวสามารถเข้าถึงได้ โดยการรวม (Integrate) การทำงานของพวกเขาเข้ากับ Cloud Technology

ยกตัวอย่างเช่น IBM Q Experience ที่อนุญาตให้ทุกคน ไม่ว่าจะเป็นพนักงานออฟฟิศที่ต้องการเรียนรู้เกี่ยวกับ Quantum Computer ไปจนถึงนักวิจัยควอนตัม โดยที่พวกเขาสามารถทดลองใช้งานเกี่ยวกับคอมพิวเตอร์ควอนตัมที่อยู่ในห้องปฏิบัติการวิจัยของไอบีเอ็ม (IBM Research Lab) โดยใช้แพลตฟอร์มคลาวด์ของพวกเขา ซึ่งผู้ใช้สามารถพัฒนาอัลกอริธึม (Algorithms) ของตนเองและดำเนินการทดลองได้ด้วยตนเอง

แต่อะไรคือวิธีการปฏิบัติที่จะช่วยให้เราสามารถใช้ประโยชน์จากคอมพิวเตอร์เชิงควอนตัมได้มากขึ้น ถ้าในเวลานั้นพวกมันจะกลายมาเป็นเรื่องที่ธรรมดามากขึ้น ในอีกไม่กี่ปีข้างหน้า? ซึ่งปัจจุบันนี้ก็ได้มีการใช้งานเพียงบางส่วน จากสิ่งที่เรียกว่า   "Optimisation" หรือการพยายามที่จะทำให้ได้ผลลัพธ์มากขึ้น โดยใช้ทรัพยากรเท่าเดิม, ไปจนถึงการจำลองด้านชีวการแพทย์ (Biomedical)

เนื่องจาก Quantum Computer นั้นมุ่งเน้นที่จะแก้ปัญหาทางคณิตศาสตร์ที่มีความซับซ้อนเป็นอย่างมาก ดังนั้นการปรับให้เหมาะสมที่สุด (Optimisation) จึงอาจจะเป็นเรื่องที่ปกติในกลุ่มของผู้บริโภคและผู้ใช้ทางธุรกิจโดยทั่วไปที่จะต้องมีปฏิสัมพันธ์กันกับระบบดังกล่าว ผ่านทาง Remote Access Model ที่ IBM ใช้อยู่ในปัจจุบันหรือสิ่งที่คล้ายกัน

ยกตัวอย่างเช่น Dr. Talia Gershon จาก IBM ที่ใช้ตัวอย่างของแขกที่โต๊ะอาหารเย็น เพื่อหาวิธีที่ดีที่สุดในการจัดเรียงคน 10 คน เหล่านั้นรอบโต๊ะ ซึ่งเขาใช้เป็นตัวอย่างที่สมบูรณ์แบบของปัญหาประเภทนี้ และอีกหนึ่งตัวอย่างก็คือ หากพนักงานขายที่จะต้องพบกับการเดินทางไปยังที่ต่าง แต่ต้องการที่จะย่นระยะเวลาในการเดินทางให้มีประสิทธิภาพมากที่สุด เพื่อไปจุดหมายปลายทางที่มีมากกว่า 200 แห่ง 

การขยายความที่จะนำมาสนับสนุนใจความหลักก็อาจจะอยู่ในส่วนของ Mapping ว่าส่วนประกอบต่างๆ มีการปฏิบัติอย่างไร ตลอดจนระบบการเรียนรู้ของเครื่อง (Machine Learning Systems) ที่มีการฝึกอบรมให้มีประสิทธิภาพมากกว่าที่เราสามารถทำได้ในขณะนี้

ไม่ว่าพวกมันจะสามารถช่วยแก้ปัญหาให้เราได้หรือไม่ก็ตาม นักวิจัยต่างก็เห็นด้วยว่าคอมพิวเตอร์ควอนตัมจะยังไม่มีประสิทธิภาพมากนัก จนกว่าเครื่องมือเหล่านี้จะสามารถรองรับคิวบิตที่มีจำนวนนับพันล้านได้ - ขณะที่ยังคงรักษา Error Rate ในระดับที่ต่ำไว้ได้ ซึ่ง IBM นั้น มีแม้กระทั่งหลักเกณฑ์ที่เรียกว่า "Quantum Volume" ที่เป็นวิธีการที่จะช่วยในการตัดสินว่าชิปควอนตัม (Quantum Chip) นั้นๆ มีประสิทธิภาพมากน้อยเพียงใด โดยอาจจะต้องคำนึงถึงปัจจัยหลายๆ อย่างที่นอกเหนือจากจำนวนของคิวบิต (ซึ่งคอมพิวเตอร์ที่มีคิวบิตเยอะๆ แต่มี Error Rate ระหว่างการประมวลผลสูง ก็ไม่ควรที่จะเรียกได้ว่าเป็นคอมพิวเตอร์เชิงควอนตัมที่มีประสิทธิภาพ)

แม้ว่า Bristlecone จะเป็นชิปประมวลผลแบบควอนตัม ที่มีขนาดเพียง 72-Qubits แต่การวิจัยทางด้านคอมพิวเตอร์ระบบควอนตัมนั้นก็เพิ่งจะอยู่ในช่วงของการเริ่มต้นเท่านั้น ซึ่งมันก็นับว่าเป็นก้าวที่สำคัญถ้ามองย้อนกลับไปเมื่อช่วงสิบกว่าปีที่ผ่านมา และเราต่างก็คาดหวังที่จะได้เห็นการพัฒนาอย่างรวดเร็วในด้านนี้

อย่างไรก็ตาม สิ่งที่ทำให้ชิปของ Google มีแนวโน้มที่ดีขึ้น นั่นก็คือ Error Rate ที่ต่ำของมัน และสิ่งนี้เองที่มีความสำคัญอย่างยิ่งต่อโอกาสในการปรับขยาย (Scaling Up) คอมพิวเตอร์เชิงควอนตัม ซึ่งก็ไม่น่าแปลกใจที่หลังจากนั้นบริษัทจะมองว่ามันเป็นต้นแบบ (Blueprint) สำหรับเครื่องมือที่ขยายขีดความสามารถได้ (Scalable)

ด้วยความช่วยเหลือจากอุตสาหกรรมต่างๆ ที่ให้การสนับสนุนเพิ่มขึ้นเรื่อยๆ รวมถึงโอกาสในการสร้างคอมพิวเตอร์เชิงควอนตัมที่ดีกว่าและมีประสิทธิภาพที่มากยิ่งขึ้นในอนาคตอันใกล้ ก็ยังคงมีแนวโน้มที่สูงขึ้นเช่นกัน

IBM และ การประมวลผลแบบควอนตัม (Quantum Computing)

IBM จัดว่าเป็นผู้นำรายแรกในการทำวิจัยเกี่ยวกับควอนตัม (Quantum) และที่แผนกประมวลผลคอมพิวเตอร์แบบควอนตัม (Quantum Computing) ของ IBM Q นั้น พวกเขามีการทำงานมาโดยตลอดเวลา เพื่อให้สามารถเข้าถึงเทคโนโลยีในขอบเขตที่กว้างมากยิ่งขึ้น และมันก็ยังช่วยอธิบายให้เข้าใจในเรื่องนี้ด้วยว่าอนาคตของ Quantum Computing จะเป็นอย่างไรต่อไป

อีกหนึ่งวิธีที่จะทำให้คุณสามารถเข้าถึงเทคโนโลยีดังกล่าวนี้ได้ก็คือ การเข้าถึงผ่านส่วนขยาย Qisikit ของ IBM Q โดยโปรแกรมโอเพนซอร์ส (Open Source)  ที่จะช่วยให้นักวิจัยและนักพัฒนาสามารถสัมผัสกับความเป็นไปได้ที่ไร้ขีดจำกัดของการคำนวณแบบควอนตัม ในรูปแบบของ Python Scripts นอกจากนี้คุณยังสามารถร้องขอการทำงานร่วมกันสำหรับการโต้ตอบกับคอมพิวเตอร์เชิงควอนตัม  ซึ่งก็หมายความว่าคุณไม่จำเป็นต้องเป็นนักฟิสิกส์เพื่อการเข้าร่วมในครั้งนี้ และที่สำคัญ คุณยังจะได้รับประสบการณ์การเขียนโปรแกรม (Composing) บน Quantum Computer จริงๆ จากแล็ปท็อปของคุณเอง

นอกเหนือจากการพัฒนา Quantum Computers ด้วยตนเองแล้ว IBM ยังได้สร้างเครือข่ายซึ่งประกอบไปด้วยกลุ่มบริษัทและสถาบันการศึกษาต่างๆ เพื่อที่จะกระตุ้นให้มีการนำนวัตกรรมด้านคอมพิวเตอร์เชิงควอนตัมไปใช้ โดยเป้าหมายของเครือข่ายก็คือการเตรียมความพร้อมให้กับทุกๆ ฝ่าย ตั้งแต่ระดับนักเรียนไปจนถึง Fortune 500 ตลอดจน วิสาหกิจเริ่มต้น (Startup) เพื่อรองรับเทคโนโลยีในด้านนี้ที่กำลังมีการขยายตัวอย่างรวดเร็ว โดยผู้เข้าร่วมกิจกรรมนั้นประกอบไปด้วย Honda, สถาบันเทคโนโลยีแมสซาชูเซตส์ (Massachusetts Institute of Technology) และ  JP Morgan Chase & Co ซึ่งเป็นบริษัทที่ให้บริการด้านการเงินและการลงทุน

ในส่วนของเครือข่ายเองนั้น ก็มีการกำหนดขอบเขตที่น่าสนใจ 3 เรื่อง ซึ่งก็ได้แก่ การเร่งการวิจัยและพัฒนาแอปพลิเคชั่นเพื่อการนำไปใช้ในเชิงพาณิชย์, การให้ความรู้ และการเตรียมความพร้อม ดังนั้น เพื่อเป็นการเร่งการวิจัย IBM จึงให้การสนับสนุนในเรื่องของความรู้และเครื่องมือแก่องค์กรที่เข้าร่วม เพื่อส่งเสริมให้เกิดการยอมรับอย่างกว้างขวาง  ส่วนในแง่ของการพัฒนาแอพพลิเคชั่นเชิงพาณิชย์นั้น องค์กรต่างๆสามารถที่จะเข้าถึง IBM คลาวด์และส่วนขยาย Qiskit ได้ นั่นจึงเป็นหนึ่งในแรงผลักดันที่จะช่วยให้พวกเขาสามารถสร้างนวัตกรรมของตัวเองได้ นอกจากนี้ IBM ก็ได้มีการจัดฝึกอบรมสมาชิกขององค์กรที่เข้าร่วมและให้การสนับสนุน เพื่อเป็นการให้ความรู้และเตรียมความพร้อมสำหรับ Quantum Computing 

วันอาทิตย์ที่ 1 กันยายน พ.ศ. 2562

blockchain technology


blockchain technology


       Blockchain เป็นเทคโนโลยีที่มีคนพูดถึงมากว่าจะเป็นตัวเปลี่ยนโลกเหมือนที่อินเทอร์เน็ตเปลี่ยนโลกในยุค 1990 ซึ่งมีการเปรียบเทียบว่า Blockchain ตอนนี้สภาพเหมือนอินเทอร์เน็ตตอนเริ่มต้น ซึ่งภาคการเงินจะปล่อยผ่านไปไม่ได้ ต้องมีคนศึกษาเรื่องนี้ เพื่อเป็นการลองทำดูว่า เอา Blockchain มาใช้กับเรื่องต่างๆ ได้อย่างไร แม้ว่าวันนี้อาจจะยังไม่มีการประยุกต์ใช้ในลักษณะที่เห็นเป็นรูปธรรมก็ตาม

      Blockchain คือ ระบบโครงข่ายในการเก็บบัญชีธุรกรรมออนไลน์ ซึ่งมีลักษณะเป็นเครือข่ายใยแมงมุม ที่เก็บสถิติการทำธุรกรรมทางการเงิน และสินทรัพย์ชนิดอื่นๆ อีกในอนาคต โดยไม่มีตัวกลาง คือสถาบันการเงิน หรือสำนักชำระบัญชี ระบบ Blockchain จะไม่มีตัวกลางอย่างที่เคยเป็นมา ยกตัวอย่างการทำธุรกรรมด้วย Bitcoin จะมีรหัส Token สร้างขึ้นมาเพื่อสื่อสารกับ Blockchain และทำการตรวจสอบว่า Bitcoin นั้นๆ มีความน่าเชื่อถือหรือไม่ก่อนที่จะทำธุรกรรมให้สำเร็จต่อไป
เท่ากับว่า Blockchain เป็นระบบโครงข่ายในการทำธุรกรรมต่างๆ ซึ่งตัดตัวกลางอย่างสถาบันการเงินที่มีอยู่ในโลกปัจจุบันออกไป ซึ่งทำให้ต้นทุนการทำธุรกรรมถูกลง และอาจจะส่งผลให้สถาบันการเงินที่เป็นตัวกลาง รวมไปถึงสำนักชำระบัญชีต่างๆ ไม่จำเป็นต้องมีอีกในอนาคตได้เลย หากเทคโนโลยีนี้เข้ามาแทนที่ได้อย่างสมบูรณ์
ขณะที่ Blockchain ไม่เพียงมีบทบาทอยู่แค่การทำธุรกรรมทางการเงินเท่านั้น หากแต่ยังอาจถูกนำไปใช้ในงานอื่นๆ เช่น การเก็บสถิติการเลือกตั้งให้มีความโปร่งใสมากขึ้น การให้ยืม Cloud Storage ระหว่างกัน, บริการ co-locationระบบ Peer to Peer Lending และอื่นๆ  อีกมากมาย ซึ่งแม้แต่เหล่าธนาคารเองก็ตัดสินใจเข้าลงทุนในการทำ Blockchain มากขึ้นเรื่อยๆ โดยล่าสุด เหล่าสถาบันการเงินอย่างธนาคาร Citibank ตลาดหลักทรัพย์ NASDAQ รวมไปถึงบริษัท VISA ก็ได้เข้าลงทุนในบริษัทบล็อกเชนชั้นนำอย่าง Chain.com เพื่อแนวทางรักษาตลาดเทคโนโลยีนี้เช่นกัน
    แนวคิด Blockchain เริ่มกลับมาเป็นกระแสที่ต้องจับตามมองอีกครั้ง พร้อมมีการพัฒนาใหม่ๆ ไปสู่การใช้งานที่มากกว่าการทำธุรกรรม Bitcoin ในอดีตที่ไม่ได้รับการยอมรับมากนัก ผนวกรวมกับกระแสการเพิ่มขึ้นของอุปกรณ์ที่ใช้แนวคิด อินเทอร์เน็ต ออฟ ธิงส์ (Internet of Things) จำเป็นต้องมีการจัดการ ดูแลอย่างการรักษาความปลอดภัยระหว่างอุปกรณ์ต่างๆ และความจำเป็นที่จะต้องบันทึกฐานข้อมูลของการติดต่อต่างๆ เหล่านั้น ทำให้เทคโนโลยีอย่าง Blockchain ที่ให้ความสำคัญกับความเป็นส่วนบุคคลจะกลายมาเป็นตัวช่วยสำคัญของการใช้งานดังกล่าว โดยลดขั้นตอนระบบการทำงานให้เรียบง่ายขึ้น มีการยืดหยุ่นที่สูงขึ้น รวมทั้งการตอบสนองความต้องการของลูกค้าได้อย่างรวดเร็ว
แต่กระนั้นความสำเร็จของ Blockchain จะสามารถพลิกสถานะการให้บริการด้านการเงินโลกดิจิทัลได้หรือไม่ การหาพาร์ตเนอร์ที่มีประสบการณ์ในการทำงานกับระบบความซับซ้อน และความหลากหลาย ในทุกระดับการใช้งานไม่ว่าเล็ก หรือใหญ่ เป็นหัวใจสำคัญของการจัดการกับปัญหานี้ได้อย่างดีที่สุด ซึ่งถ้าย้อนกลับไปเมื่อ 5 ปีที่ผ่านมาไอเดียทางธุรกิจเหล่านี้ ต่างเคยถูกมองว่าเป็นเรื่องที่ไม่น่าจะเกิดขึ้นได้จริง หากแต่ปัจจุบันเรื่องเช่นนี้ได้กลายเป็นตัวกำหนดผู้ชนะในอนาคต ซึ่งทั้งหมดนี้สามารถเกิดขึ้นได้ด้วยการมองว่าซอฟต์แวร์คือตัวแปรสำคัญของการเปลี่ยนแปลงของโลกยุคใหม่นั่นเอง
บทความจากนิตยสาร Eleader 
ขอขอบคุณข้อมูลจาก aripfan

วันพฤหัสบดีที่ 27 มิถุนายน พ.ศ. 2562

Artificial intelligence

 Artificial Intelligence (AI)

          
                 เป็นศาสตร์แขนงหนึ่งของวิทยาศาสตร์ คอมพิวเตอร์ ที่เกี่ยวข้องกับวิธีการทำให้คอมพิวเตอร์มีความสามารถคล้ายมนุษย์หรือเลียน แบบพฤติกรรมมนุษย์ โดยเฉพาะความสามารถในการคิดเองได้ หรือมีปัญญานั่นเอง ปัญญานี้มนุษย์เป็นผู้สร้างให้คอมพิวเตอร์ จึงเรียกว่าปัญญาประดิษฐ์ มุมมอต่อ AI   ที่แต่ละคนมีอาจไม่เหมือนกัน ขึ้นอยู่กับว่า เราต้องการความฉลาดโดย คำนึงถึงพฤติกรรมที่มีต่อสิ่งแวดล้อมหรือคำนึงการคิดได้ของผลผลิต AI 

คำนิยาม AI ตามความสามารถที่มนุษย์ต้องการ ให้มันแบ่งได้ กลุ่ม ดังนี้

 1.   Acting Humanly : การกระทำคล้าย มนุษย์ เช่น                        
              - สื่อสารกับ มนุษย์ได้ด้วยภาษาที่มนุษย์ใช้ เช่น ภาษาอังกฤษ เป็นการประมวลผลภาษาธรรมชาติ            (natural language processing) อย่าง หนึ่ง เช่น เพื่อน ๆ ใช้เสียงสั่งให้คอมพิวเตอร์พิมพ์เอกสารให้  
   
   2.  Thinking Humanly : การคิดคล้าย มนุษย์ ก่อนที่จะทำให้เครื่องคิดอย่างมนุษย์ได้ ต้องรู้ก่อนว่ามนุษย์มีกระบวนการคิดอย่างไร ซึ่งการวิเคราะห์ลักษณะการคิดของมนุษย์เป็นศาสตร์ด้าน cognitive science เช่น ศึกษาโครงสร้างสามมิติของเซลล์สมอง การแลกเปลี่ยนประจุไฟฟ้าระหว่างเซลล์สมอง วิเคราะห์การเปลี่ยนแปลงทางเคมีไฟฟ้าในร่างกายระหว่างการคิด ซึ่งจนถึงปัจจุบันเราก็ยังไม่รู้แน่ชัดว่า มนุษย์เรา คิดได้อย่างไร         

    3.    Thinking rationally : คิดอย่างมี เหตุผล หรือคิดถูกต้อง โดยใช้หลักตรรกศาสตร์ในการคิดหาคำตอบอย่างมี     เหตุผล เช่น ระบบผู้เชี่ยวชาญ
     4.   Acting rationally : กระทำอย่างมีเหตุผล เช่น agent (agent เป็นโปรแกรมที่มีความสามารถในการกระทำ หรือเป็นตัวแทนในระบบอัตโนมัติต่าง ๆ ) สามารถกระทำอย่างมีเหตุผลคือ agent ที่กระทำการเพื่อบรรลุเป้าหมายที่ได้ตั้งไว้ เช่น agent ใน ระบบขับรถอัตโนมัติที่มีเป้าหมายว่าต้องไปถึงเป้าหมายในระยะทางที่สั้นที่ สุด ต้องเลือกเส้นทางที่ไปยังเป้าหมายที่สั้นที่สุดที่เป็นไปได้จึงจะเรียกได้ ว่า agent กระทำอย่างมีเหตุผล อีกตัวอย่างเช่น agent ใน เกมหมากรุกมีเป้าหมายว่าต้องเอาชนะคู่ต่อสู้ ต้องเลือกเดินหมากที่จะทำให้คู่ต่อสู้แพ้ให้ได้ เป็นต้น

ความเป็นมาของปัญญาประดิษฐ์



         ปัญญาประดิษฐ์ได้เริ่มการ ศึกษาในปี ค.ศ.1950 โดยอาจารย์จาก ประเทศอเมริกาและอังกฤษ นิยามของปัญญาประดิษฐ์ได้ถูกกำหนดขึ้นในปี 1956 โดย John McCarthy ได้มีการศึกษา และพัฒนางานด้านปัญญาประดิษฐ์และได้มีการตั้งเกณฑ์ทดสอบเพื่อที่จะระบุว่า เครื่องจักรกลหรือระบบคอมพิวเตอร์สามารถคิดได้เหมือนมนุษย์ออกมาโดย Alan Turing นักคณิตศาสตร์ชาวอังกฤษ แต่จนบัดนี้เครื่องจักรกลหรือระบบคอมพิวเตอร์ก็ยังไม่สามารถผ่านเกณฑ์ของ Alan Turing ได้เลย  ณ ปัจจุบันระบบปัญญาประดิษฐ์ยังไม่สามารถสร้างคำตอบที่แปลกใหม่หรือคำตอบที่มา จากการคิดค้นขึ้นมาใหม่ของระบบเองได้ เพียงแต่เป็นการลอกเลียนความสามารถของมนุษย์ได้เท่านั้น

ลักษณะงานของปัญญาประดิษฐ์

1. Cognitive Science
        งาน ด้านนี้เน้นงานวิจัยเพื่อศึกษาว่าสมองของมนุษย์ทำงานอย่างไร และมนุษย์คิดและเรียนรู้อย่างไร จึงมีพื้นฐานที่การประมวลผลสารสนเทศในรูปแบบของมนุษย์ประกอบด้วยระบบต่างๆ 
 - ระบบผู้เชี่ยวชาญ (Expert Systems)
 - ระบบเครือข่ายนิวรอน (Neural Network)
 - ระบบแบ๊บแน็ต (Papnet) 
 - ฟัสซี่โลจิก (Fuzzy Logic)
 - เจนเนติกอัลกอริทึม (Genetic Algorithm)
 - เอเยนต์ชาญฉลาด (Intelligent Agents) 
 - ระบบการเรียนรู้ (Learning Systems)

2. Roboics
           พื้นฐานของวิศวกรรมและสรีรศาสตร์ เป็นการพยายามสร้างหุ่นยนต็ไห้มีความฉลาดและถูกควบคุมด้วยคอมพิวเตอร์แต่ สามารถเครื่องไหวได้เหมือนกับมนุษย์

3. Natural Interface 
           งาน ด้านนี้ได้ชื่อว่าเป็นงานหลักที่สำคัญที่สุดของปัญญาประดิษฐ์ และพัฒนาบนพื้นฐานของภาษาศาสตร์ จิตวิทยา และวิทยาการคอมพิวเตอร์ประกอบด้วยงานด้านต่างๆ
 - ระบบที่มีความสามารถในการเข้าใจภาษามนุษย์ (Natural Language)
 - ระบบภาพเสมือนจริง (Virtual Reality)
 - ระบบปัญญาประดิษฐ์แบบผสมผสาน (Hybrid AI Systems)

 - ระบบผู้เชี่ยวชาญ (Expert Systems)
       เป็นระบบที่ช่วยในการแก้ปัญหาหรือช่วยในการตัดสินใจโดยใช้วิธีเดียวกับผู้เชี่ยวชาญที่เป็นมนุษย์

องค์ประกอบของผู้เชี่ยวชาญ
   1. ฐานความรู้ (Knowledge Base) เป็นส่วนของความรู้ของผู้เชี่ยวชาญทั้งหมด ซึ่งจะเก็บไว้ในฐานข้อมูลของระบบ
   2. โปรแกรมของระบบผู้เชี่ยวชาญ (Expert System Software หรือ Software Resources) แบ่งออกได้ ส่วน     
       1) ส่วนที่ใช้ในการประมวลผลความรู้จากฐานความรู้ 
       2) ส่วนที่ใช้ในการติดต่อสื่อสารกับผู้ใช้
ระบบสารสนเทศภูมิศาสตร์ (Geographic Information Systems : GIS)
      คือกระบวนการทำงานเกี่ยวกับข้อมูลที่มีความสัมพันธ์ในเชิงพื้นที่ด้วย ระบบคอมพิวเตอร์ เช่น ที่อยู่ บ้านเลขที่ สัมพันธ์กับตำแหน่งในแผนที่ ตำแหน่ง เส้นรุ้ง เส้นแวง เป็นต้น
องค์กรและหน่วยงานที่เกียวข้องและให้การสนับสนุนทางด้าน ปัญญาประดิษฐ์ ได้แก่
 1. The Ameriscan Association for Artificial Intelligence (AAAI)
 2. The European Coordinating Committee for Artificial Intelligence ( ECCAI)
 3. The society for Artificial Intelligence and Simulation of Behavior (AISB)
          องค์กรทั้งสามนี้ให้การสนับสนุนการค้นคว้าทางด้าน ปัญญาประดิษฐ์ องค์กรทั้งในกลุ่มที่สนใจในปัญญาประดิษฐ์ เป็นพิเศษโดยใช้สื่อว่า SIGART คือ The Association for Computing Machinery (ACM)

                   

วันพฤหัสบดีที่ 7 มีนาคม พ.ศ. 2562

mini project

ลูกเต๋าอิเล็กทรอนิกส์ สองหลัก










อุปกรณ์

1.pic16f628a
2.IC 74LS47 BCD to 7-Segment
3.Crystal   4 MHz
4.สวิทซ์กดติดปล่อยดับ
5.ต้วต้านทาน  470โอห์ม
6.ตัวต้านทาน 1.2 กิโลโอห์ม
7.ตัวต้านทาน 10 กิโลโอห์ม
8.ตัวเก็บประจุ  22 pf 



code

void main()
{

unsigned char dice[]={0x11,0x21,0x61,0x22,0x43,0x52,0x16,0x33,0x66,0x13,0x31,0x26,0x55,0x45,0x64,0x12,0x32,0x62,0x36,0x41,0x44,0x56,0x65,0x15,0x51,0x46,0x14,0x63,0x24,0x54,0x25,0x53,0x23,0x35,0x43,0x34,};
    
 unsigned char i;


     TRISB=0b00001000;

     PORTB=0b00001000;

     while(1)
     {
            if(PORTB.F3==0)
            {
                    PORTB=dice[i];

                    delay_ms(1000);

                    PORTB=0;
            }

            i++;
            if(i>37)i=0;

     }

}
ลิ้งวีดีโอ
https://www.youtube.com/watch?v=XhdE6TcOrR0&feature=youtu.be

วันศุกร์ที่ 8 กุมภาพันธ์ พ.ศ. 2562

โครงงานที24

โครงงานที24


code

void beep(void);
 main()
{
 int time1,time2;
 TRISB = 0xF0;

   while(1)
  {
    PORTB.F1=0;
    PORTB.F2=0;
    PORTB.F3=0;
  while(~PORTB.F4&PORTB.F5&PORTB.F6)
  {
    PORTB.F1=1;
    PORTB.F2=0;
    PORTB.F3=0;
    for(time1=0;time1<20000;time1++)
    {
    while(PORTB.F4&~PORTB.F5&PORTB.F6)
    {
     PORTB.F1=1;
     PORTB.F2=1;
     PORTB.F3=0;
     for(time2=0;time2<10000;time2++)
     {
     while(PORTB.F4&PORTB.F5&~PORTB.F6)
            {
             PORTB.F1=1;
             PORTB.F2=1;
             PORTB.F3=1;
             beep();
             Delay_ms(1000);
            }
            }
         }
         }
       }
      }
  }
void beep(void)
{
  int i ;

  for(i=0;i<200;i++)
   {
     PORTB.F0=1;
     Delay_us(200);
     PORTB.F0=0;
     Delay_us(200);
   }

}

Internet of Things (IoT)

Internet of Things หรือ IoT Internet of Things (IoT)  คือ การที่อุปกรณ์อิเล็กทรอนิกส์ต่างๆ สามารถเชื่อมโยงหรือส่งข้อมูลถึงกันได้ด้วยอิน...