วันเสาร์ที่ 31 ตุลาคม พ.ศ. 2563

สรุปงาน:, Augmented​reality​ ​& Virtual​reality​ ( AR​ & VR.)​

 

Augmented Reality (AR) และ Virtual Reality (VR)

คือเทคโนโลยีโลกเสมือนที่ออกแบบมาเพื่อเสริมสร้างประสบการณ์ให้แก่ผู้ใช้โดยมีจุดประสงค์แตกต่างกันไปขึ้นอยู่กับลักษณะการใช้งาน และในฐานะผู้บริโภค AR และ VR ได้กลายเป็นส่วนหนึ่งในชีวิตประจำวันโดยเราไม่ทันรู้ตัว อีกทั้งธุรกิจต่างๆเริ่มให้ความสนใจในการนำเทคโนโลยีเหล่านี้มาใช้งานมากขึ้น ทำให้อุตสาหกรรมเทคโนโลยีโลกเสมือนกลายเป็นที่น่าจับตามองจากหลายฝ่าย ในบทความนี้เราจะมาทำความรู้จักและเรียนรู้ความแตกต่างของ AR และ VR รวมถึงการนำเทคโนโลยีโลกเสมือนไปใช้งานจริงในโลกธุรกิจ

 

Augmented Reality (AR)

Augmented Reality หรือ AR คือการรวมวัตถุเสมือนเข้ากับสภาพแวดล้อมจริงที่อยู่รอบตัวเรา โดยวัตถุเสมือนนี้อาจเป็นได้ทั้งภาพ วิดีโอ หรือเสียงที่ประมวลผลมาจากคอมพิวเตอร์หรืออุปกรณ์สื่อสารเคลื่อนที่ เช่น มือถือ หรือแท็บเล็ท เทคโนโลยี AR จึงไม่ใช่การสร้างสิ่งแวดล้อมขึ้นมาใหม่ แต่เป็นการพยายามสอดแทรกเทคโนโลยีเข้าไปในสภาพแวดล้อมจริง

ยกตัวอย่างเช่น แอพพลิเคชั่นเกม Pokemon Go ที่เปิดตัวครั้งแรกในปี 2016 เป็นเกมที่ให้ผู้เล่นทั่วโลกได้ตามหาและจับโปเกม่อนในระแวกใกล้เคียง เพียงผู้เล่นเปิดใช้งานกล้องมือถือหรือแท็บเล็ทแล้วสแกนตามจุดต่างๆในแผนที่ที่ระบุตำแหน่งของโปเกม่อน และเมื่อต้นเดือนพฤษภาคมนี้ค่ายซอฟต์แวร์ยักษ์ใหญ่อย่าง Microsoft ได้เปิดตัวเกมส์คล้าย Pokemon Go ชื่อ “Minecraft Earth” นับว่าเป็นอีกก้าวของการนำเทคโนโลยี AR มาใช้ในสนับสนุนเกมโด่งดังที่เรารู้จักอย่าง Minecraft ให้เป็นเกมที่สามารถพกพาไปเล่นได้ทุกที่

 

นอกจากนี้ AR ยังถูกนำมาใช้ในโซเชียลมีเดียแอปพลิเคชั่นอย่าง Instagram, Facebook และ Snapchat โดยการสร้างฟีเจอร์ต่างๆให้ผู้ใช้งานได้ทดลองตกแต่งใบหน้า เพิ่มมงกุฎ เปลี่ยนสีลิปสติก หรือแม้กระทั่งแต่งหน้าเป็นเพศตรงข้าม สิ่งเหล่านี้นับได้ว่าเป็น AR ในชีวิตประจำวันที่เรารู้จักและคุ้นชิน

 

ในแง่ของธุรกิจ AR ก็มีบทบาทสำคัญเช่นเดียวกัน ธุรกิจขนาดใหญ่หลายเจ้าใช้ AR ในการช่วยเสริมประสบการณ์ให้กับลูกค้าในร้านค้าปลีกแบบ Brick and Mortar, ใช้เป็นช่องทางในการทำโฆษณารูปแบบใหม่ รวมถึงช่วยในอุตสาหกรรมการผลิตและซ่อมแซมอุปกรณ์ต่างๆ

 

สำหรับธุรกิจเสื้อผ้าที่มีหน้าร้านอย่าง Topshop และ Uniqlo ได้ใช้ AR เป็นส่วนช่วยในการสร้างเสริมประสบการณ์ในการช้อปปิ้ง โดยการสร้างห้องลองเสื้อผ้าเสมือนเพื่อเอาใจขาช้อปทั้งหลายที่ใช้เวลานานหลายชั่วโมงในการเลือกซื้อเสื้อผ้า ผู้ใช้งานสามารถลองเสื้อผ้าเสมือนที่สร้างขึ้นโดย AR เปลี่ยนสไตล์ เปลี่ยนสี หรือไซส์ นอกจากธุรกิจเสื้อผ้าแล้ว บริษัทเฟอร์นิเจอร์รายใหญ่ระดับโลกอย่าง IKEA ยังได้เปิดตัวแอปพลิเคชั่น “IKEA Place” พร้อมสโลแกน “Try before you buy.” ให้ผู้ใช้งานได้สัมผัสประสบการณ์ใหม่ในการเลือกซื้อเฟอร์นิเจอร์และของตกแต่งบ้าน ซึ่งแอปพลิเคชั่นดังกล่าวได้รวบรวมสินค้ากว่า 2,000 รายการเพื่อให้ผู้ใช้งานได้ลองวัดขนาดและจัดวางเฟอร์นิเจอร์ในบ้านก่อนเลือกซื้อจริง ทั้งนี้เพื่อลดความผิดพลาดในการเลือกซื้อเฟอร์นิเจอร์ กล่าวได้ว่า IKEA สามารถใช้ AR เป็นสื่อกลางช่วยให้แบรนด์เข้าถึงและตอบสนองความต้องการของผู้บริโภคได้มากขึ้น

ขณะเดียวกัน อุตสาหกรรมโฆษณาได้หันมาสนใจทางเลือกใหม่ในการโฆษณาโดยใช้เทคโนโลยี AR มากขึ้น ครีเอทีฟในปัจจุบันต่างเสาะหาลูกเล่นใหม่ๆในการใช้ AR เพื่อสื่อสารข้อมูลไปยังผู้บริโภคโดยเน้นการสร้างจุดใจและเพิ่มการมีส่วนร่วม ตัวอย่างเช่น Burger King ประเทศบราซิลได้ทำดิจิทัลแคมเปญ “Burn That Ad.” เชิญชวนให้ผู้บริโภคใช้กล้องโทรศัพท์มือถือถ่ายไปที่ Print ad ที่ติดอยู่ทั่วเมืองแล้ว “เผามันซะ” และหลังจาก AR ได้ทำหน้าที่เผาป้ายโฆษณาแล้วในจอโทรศัพท์มือถือจะแสดงข้อความให้ไปรับ Whopper ฟรีที่สาขาของ Burger King

นอกจากนี้ ธุรกิจที่เกียวข้องกับการใช้งานเครื่องจักรกลหรือชิ้นส่วนต่างๆที่ยากต่อการอธิบายและต้องใช้เวลาในการเรียนรู้สามารถใช้ AR ประกอบในการฝึกอบกรมพนักงาน เพราะ AR ทำให้เรามองเห็นชิ้นส่วนเหล่านี้ในรูปแบบสามมิติ สามารถย่อ หรือ ขยายรายละเอียดต่างๆได้ ทำให้ลดความเสี่ยงต่ออันตรายที่อาจเกิดขึ้นกับผู้ใช้งานและอุปกรณ์เหล่านี้

 

Virtual Reality (VR)

ขณะที่ลักษณะการใช้งานของเทคโนโลยี AR คือการพยายามเข้าไปเป็นส่วนหนึ่งในสิ่งแวดล้อมของผู้ใช้งาน ส่วน Virtual Reality หรือ VR กลับพยายามสร้างสภาพแวดล้อมเสมือนขึ้นมาใหม่เพื่อตัดขาดผู้ใช้งานออกจากโลกความจริง โดยสิ่งแวดล้อมเสมือนนี้อาจเป็นได้ทั้งภาพและเสียง และอาจดูคล้ายหรือแตกต่างกับความเป็นจริงอย่างสิ้นเชิง การใช้งานเทคโนโลยี VR จึงจำเป็นต้องใช้อุปกรณ์เฉพาะ ซึ่งก็คือ VR Headset เพื่อเข้าถึงโลกเสมือนที่สร้างขึ้นจากคอมพิวเตอร์

และเนื่องจาก VR มีคุณสมบัติเด่นในการสร้างสภาพแวดล้อมเสมือน อุตสาหกรรมเกมในปัจจุบันจึงหันมาให้ความสนใจและใช้เทคโนโลยีในการพัฒนาเกม VR เพื่อส่งมอบประสบการณ์การเล่นเกมแบบใหม่ให้กับผู้บริโภค โดยทั่วไปแล้วการเล่นเกม VR จะต้องใช้อุปกรณ์ VR Headset ซึ่งเรทราคาก็จะขึ้นอยู่กับความพึงพอใจในการใช้งาน เมื่อเชื่อมต่ออุปกรณ์นี้กับคอมพิวเตอร์หรือแล็ปท็อป ผู้เล่นก็จะสามารถเริ่มเกมได้ในฐานะตัวละครในเกม และเมื่อผู้เล่นเปลี่ยนท่าทางตัวละครในเกมก็จะขยับท่าทางด้วย และในปัจจุบัน เกม VR ได้ก้าวไปอีกขั้นเมื่อมีการนำเทคโนโลยี eye-tracking มาใช้เพื่อตรวจจับการเคลื่อนไหวของสายตาผู้เล่น และแสดงมุมมองให้ปรากฏบนจอภายใน Headset

 

เช่นเดียวกับการใช้ AR ในอุตสาหกรรมที่ต้องใช้ความชำนาญในการใช้เครื่องมือและเทคโนโลยีโดยเฉพาะ VR ถูกนำไปใช้ในการฝึกอบรมพนักงาน เนื่องจากเป็นวิธีที่คุ้มค่าสำหรับการใช้งานในระยะยาว และสามารถลดความเสี่ยงในการเกิดอุบัติเหตุได้ ในธุรกิจสุขภาพ หมอและพยาบาลสามารถใช้ VR ในการฝึกซ้อมการผ่าตัดและรักษาผู้ป่วยซึ่งเป็นหุ่นเสมือนที่ VR สร้างขึ้น

 

และในธุรกิจการบินที่ต้องมีการซ่อมแซมชิ้นส่วนและฝึกการควบคุมเครื่องบิน VR ได้เข้ามาเป็นส่วนสำคัญในการฝึกอบรมพนักงาน Jasoren บริษัทที่มีความเชี่ยวชาญในการพัฒนาซอฟต์แวร์ AR และ VR กล่าวว่าการศึกษาและเรียนรู้ชิ้นส่วนของเครื่องบินจำเป็นต้องใช้เวลาศึกษาอย่างละเอียด และด้วยชิ้นส่วนของเครื่องบินมีราคาสูง การเรียนรู้ด้วย VR จึงเป็นที่นิยม ทั้งนี้ก็เพื่อป้องกันความเสียหายที่อาจเกิดขึ้นต่อชิ้นส่วนและผู้ใช้งาน อีกทั้งผู้ใช้งานยังสามารถใช้เวลาศึกษาและฝึกฝนได้ในเวลาที่ไม่จำกัด นอกจากนี้ นักบินสามารถใส่ VR headset เพื่อจำลองการบังคับเครื่องบินในห้องบังคับการ เรียนรู้วิธีการบิน รวมถึงฝึกการเผชิญหน้ากับเหตุอันตรายที่คาดไม่ถึง

สรุปงาน​:technology of thing (iot)​

 

Internet of Things หรือ IoT คืออะไร

 

Internet of Things (IoT) คือ การที่อุปกรณ์อิเล็กทรอนิกส์ต่างๆ สามารถเชื่อมโยงหรือส่งข้อมูลถึงกันได้ด้วยอินเทอร์เน็ต โดยไม่ต้องป้อนข้อมูล การเชื่อมโยงนี้ง่ายจนทำให้เราสามารถสั่งการควบคุมการใช้งานอุปกรณ์อิเล็กทรอนิกส์ต่างๆ ผ่านทางเครือข่ายอินเตอร์เน็ตได้ ไปจนถึงการเชื่อมโยงการใช้งานอุปกรณ์อิเล็กทรอนิกส์ต่างๆ ผ่านทางเครือข่ายอินเตอร์เน็ตเข้ากับการใช้งานอื่นๆ จนเกิดเป็นบรรดา Smart ต่างๆ ได้แก่ Smart Device, Smart Grid, Smart Home, Smart Network, Smart Intelligent Transportation ทั้งหลายที่เราเคยได้ยินนั่นเอง ซึ่งแตกต่างจากในอดีตที่อุปกรณ์อิเล็กทรอนิกส์เป็นเพียงสื่อกลางในการส่งและแสดงข้อมูลเท่านั้น

 

กล่าวได้ว่า Internet of Things นี้ได้แก่การเชื่อมโยงของอุปกรณ์อัจฉริยะทั้งหลายผ่านอินเทอร์เน็ตที่เรานึกออก เช่น แอปพลิเคชัน แว่นตากูเกิลกลาส รองเท้าวิ่งที่สามารถเชื่อมต่อข้อมูลการวิ่ง ทั้งความเร็ว ระยะทาง สถานที่ และสถิติได้

 

นอกจากนั้น Cloud Storage หรือ บริการรับฝากไฟล์และประมวลผลข้อมูลของคุณผ่านทางออนไลน์ หรือเราเรียกอีกอย่างว่า แหล่งเก็บข้อมูลบนก้อนเมฆ เป็นอีกสิ่งหนึ่งที่เราใช้งานบ่อยๆแต่ไม่รู้ว่าเป็นหนึ่งในรูปแบบของ Internet of Things สมัยนี้ผู้ใช้นิยมเก็บข้อมูลไว้ในก้อนเมฆมากขึ้น เนื่องจากมีข้อดีหลายประการ คือ ไม่ต้องกลัวข้อมูลสูญหายหรือถูกโจรกรรม ทั้งยังสามารถกำหนดให้เป็นแบบส่วนตัวหรือสาธารณะก็ได้ เข้าถึงข้อมูลได้ทุกที่ทุกเวลาด้วยอุปกรณ์อิเล็กทรอนิกส์ใดๆผ่านเครือข่ายอินเตอร์เน็ต แถมยังมีพื้นที่ใช้สอยมาก มีให้เลือกหลากหลาย ช่วยเราประหยัดค่าใช้จ่ายได้อีกด้วย เนื่องจากเราไม่ต้องเสียเงินซื้ออุปกรณ์จัดเก็บข้อมูล เช่น ฮาร์ดไดร์ฟ หรือ Flash drive ต่างๆ

 

แนวคิด Internet of Things

 

เดิมมาจาก Kevin Ashton บิดาแห่ง Internet of Things ในปี 1999 ในขณะที่ทำงานวิจัยอยู่ที่มหาวิทยาลัย Massachusetts Institute of Technology หรือ MIT เขาได้ถูกเชิญให้ไปบรรยายเรื่องนี้ให้กับบริษัท Procter & Gamble (P&G)  เขาได้นำเสนอโครงการที่ชื่อว่า  Auto-ID Center ต่อยอดมาจากเทคโนโลยี RFID ที่ในขณะนั้นถือเป็นมาตรฐานโลกสำหรับการจับสัญญาณเซ็นเซอร์ต่างๆ( RFID Sensors) ว่าตัวเซ็นเซอร์เหล่านั้นสามารถทำให้มันพูดคุยเชื่อมต่อกันได้ผ่านระบบ Auto-ID ของเขา โดยการบรรยายให้กับ P&G ในครั้งนั้น Kevin ก็ได้ใช้คำว่า Internet of Things ในสไลด์การบรรยายของเขาเป็นครั้งแรก โดย Kevin นิยามเอาไว้ตอนนั้นว่าอุปกรณ์อิเล็กทรอนิกส์ใดๆก็ตามที่สามารถสื่อสารกันได้ก็ถือเป็น “internet-like” หรือพูดง่ายๆก็คืออุปกรณ์อิเล็กทรอนิกส์ที่สื่อสารแบบเดียวกันกับระบบอินเตอร์เน็ตนั่นเอง โดยคำว่า “Things” ก็คือคำใช้แทนอุปกรณ์อิเล็กทรอนิกส์ต่างๆเหล่านั้น

 

 

ต่อมาในยุคหลังปี 2000 มีอุปกรณ์อิเล็กทรอนิกส์ถูกผลิตออกจัดจำหน่ายเป็นจำนวนมากทั่วโลก จึงเริ่มมีการใช้คำว่า Smart ซึ่งในที่นี้คือ Smart Device, Smart Grid, Smart Home, Smart Network, Smart Intelligent Transportation ต่างๆเหล่านี้ ล้วนถูกฝัง RFID Sensors เสมือนกับการเติม ID และสมอง ทำให้มันสามารถเชื่อมต่อกับโลกอินเตอร์เน็ตได้ ซึ่งการเชื่อมต่อเหล่านั้นเองก็เลยมาเป็นแนวคิดที่ว่าอุปกรณ์เหล่านั้นก็ย่อมสามารถสื่อสารกันได้ด้วยเช่นกัน โดยอาศัยตัว Sensor ในการสื่อสารถึงกัน นั่นแปลว่านอกจาก Smart Device ต่างๆจะเชื่อมต่ออินเตอร์เน็ตได้แล้ว ยังสามารถเชื่อมต่อไปยังอุปกรณ์ตัวอื่นได้ด้วย

 

Internet of Things และ Big Data สัมพันธ์กันอย่างไร

 

ปัจจุบัน Internet of Things สามารถตอบสนองความต้องการทางด้านการใช้งานของเราได้มากขึ้น สาเหตุเพราะอุปกรณ์อิเล็กทรอนิกส์ต่างๆมีราคาถูกลง ทำให้เกิดการใช้งานจริงมากขึ้น มีการค้นพบ Use Case ใหม่ๆในธุรกิจ ทำให้ผู้ผลิตได้เรียนรู้และคอยแก้โจทย์ เพื่อเพิ่มประสิทธิภาพให้ตรงใจผู้ใช้ ก่อให้เกิดนวัตกรรมใหม่ๆ ยิ่งไปกว่านั้น Internet of Things มีการเชื่อมโยงกันอย่างเป็นระบบ เราจึงเริ่มเห็นธุรกิจที่หันมาให้ความสนใจ Internet of Things ในแง่ที่มันสามารถช่วยแก้ปัญหาทางธุรกิจ ทางสังคม และช่วยแก้ไขปัญหาชีวิตประจำวันได้ โดยการนำเอาข้อมูลหรือ Big Data เข้ามาใช้ในการพัฒนาเพื่อตอบสนองความต้องการของแต่ละรูปแบบ ถึงตรงนี้แล้วคงจะสงสัยใช่มั้ยคะว่า Big data เกี่ยวข้องอย่างไรกับ Internet of Things

 

 

Big Data คือ ข้อมูลขนาดมหาศาลที่เกิดขึ้น ไม่มีโครงสร้างชัดเจน หนึ่งในตัวอย่างที่เราจะเห็นได้ง่ายคือข้อมูลจากยุคโซเชียล ผู้ใช้เป็นคนสร้างขึ้นมา ซึ่งนอกจากเนื้อหาในโลกออนไลน์แล้ว ยังมีข้อมูลอีกประเภทหนึ่งคือ   ข้อมูลจากอุปกรณ์ที่เราใช้หรือสวมใส่ เช่น สายรัดวัดชีพจรตอนออกกำลังกาย ตัวอย่างเช่น แบรนด์ไนกี้ตั้งโจทย์ขึ้นมาว่า เราจะรู้ได้อย่างไรว่าลูกค้าซื้อรองเท้าแล้วนำไปใส่วิ่งจริง แต่ตอนนี้พิสูจน์ได้แล้วเพราะว่าไนกี้ใช้ IoT กับสินค้าของเขา ยิ่งไปกว่านั้นตอนนี้ลูกค้าไม่ได้ผลิตข้อมูลที่นำไปสู่ Big Data จากการโพสต์ คอมเมนต์ กดไลค์ หรือแชร์เพียงอย่างเดียว แต่เกิดจากกิจกรรมในไลฟ์สไตล์ที่ธุรกิจหรือแบรนด์นำไปจับคู่กับสินค้า แล้วสร้างเป็นเนื้อหาที่โดนใจผู้รับสารขึ้นมา สิ่งสำคัญคือ ข้อมูลพวกนี้บอกว่ามีอะไรเกิดขึ้นได้อย่างเดียว สิ่งสำคัญกว่าคือ ธุรกิจ องค์กร และแบรนด์ต่างๆ จะเปลี่ยนข้อมูลพวกนี้เป็นประโยชน์ได้อย่างไร ทำอย่างไรข้อมูลจึงจะสามารถบอกได้ว่า ‘ทำไมสิ่งต่างๆเหล่านั้นถึงเกิดขึ้น’ จุดนี้จึงทำให้เรารู้จักความต้องการที่แท้จริงของผู้บริโภค (Consumer Insight) และรู้ว่าต้องทำอย่างไรให้ธุรกิจหรือบริการของเราจะมีประสิทธิภาพยิ่งขึ้น

 

ประโยชน์และความเสี่ยง

 

เทคโนโลยี Internet of Things มีประโยชน์ในหลายด้านทั้งเรื่องการเก็บข้อมูลที่แม่นยำและเป็นปัจจุบัน ช่วยลดต้นทุน แถมยังช่วยเพิ่มผลผลิตของพนักงานหรือผู้ใช้งานได้ แม้ว่าแนวโน้มของ IoT มีแต่จะเพิ่มขึ้นด้วยคุณาประโยชน์ตามที่ได้กล่าวมาแล้ว แต่ประโยชน์ใดๆนั้นก็มาพร้อมกับความเสี่ยง เพราะความท้าทายในการรักษาความปลอดภัยของเครือข่ายใหม่ที่เกิดขึ้นนั้น จะผลักดันให้ผู้เชี่ยวชาญมีการรับมือทางด้านความปลอดภัยมากขึ้น ในทางตรงกันข้ามแฮกเกอร์หรือผู้ไม่หวังดีก็ทำงานหนักเพื่อที่จะเข้าควบคุม โจมตีเครือข่าย หรือเรียกค่าไถ่ในช่องโหว่ที่ IoT มีอยู่ ฉะนั้นผู้เชี่ยวชาญด้านความปลอดภัยทาง IoT จึงจำเป็นต้องพัฒนามาตรการ และระบบรักษาความปลอดภัยไอทีควบคู่กันไป เพื่อให้ธุรกิจและการใช้งาน IoT สามารถขับเคลื่อนต่อไปได้

 

สรุปงาน: Quantum​computing​

เทคโนโลยี Quantum Computer คืออะไร ?

หากจะพูดถึงคอมพิวเตอร์ควอนตัมคงจะต้องเริ่มจาก Qubit หรือ Quantum Bit กันก่อน เทคโนโลยีของคอมพิวเตอร์ควอนตัมนั้นเริ่มมาจากสิ่งที่เรียกว่า “Superposition” ใน Quantum Physics  เมื่ออนุภาคขนาดเล็กสามารถมีตัวตนอยู่ได้หลายที่ในขณะเดียวกัน ซึ่งคอมพิวเตอร์ในปัจจุบัน ฐานที่เล็กที่สุดของการคำนวณคือ Bit หรือ Binary Digits ที่มีสถานะเป็น “0” และ “1” แต่กับคอมพิวเตอร์ควอนตัมเราจะไม่รู้ค่าของมันเลย มันอาจจะเป็น “0” หรือเป็น “1” หรือทั้งคู่ จนกว่าเราจะทำการวัดค่าของมัน ซึ่งก็คือสถานะ Superposition นั่นเอง Qubit จะยังไม่ตัดสินใจแสดงเป็นค่าใดค่าหนึ่ง ถึงแม้มีโอกาสที่ค่านั้นจะถูกกำหนดไว้แล้วก็ตาม

Concept ของ Quantum Bit หรือ Qubit

ADVERTISEMENT

 

โดยปกติ 1 Bit จะเก็บค่าได้แค่ “0” และ “1” แต่ Qubits จะเก็บค่าได้ซับซ้อนมากกว่านั้น คือไม่เป็น “0” และ “1” ก็เป็นทั้งคู่ หรือไม่เป็นทั้งคู่ นั่นแปลว่าใน 1 Qubits จะเกิด 2 ความเป็นไปได้ ซึ่งตามคอนเซ็ปต์ของ Superposition แล้ว หากเรามี 2 Qubits จะเกิด 4 ความเป็นไปได้ และ 3 Qubits เกิด 8 ความเป็นไปได้ และ 4 Qubits จะเกิด 16 ความเป็นไปได้ โดยจะอยู่ในรูปแบบ 2 กำลัง X ไปเรื่อย ๆ

พูดถึง Quantum Computer ในแบบของ Google

Google เริ่มโครงการ Quantum Computer ครั้งแรกจากความต้องการที่จะพัฒนา AI ในปี 2013 จึงจัดตั้งแลบเฉพาะเพื่อการศึกษา และค้นคว้าเกี่ยวกับ Quantum Computer เพื่อ AI หรือ QuAIL (Quantum Artificial Intelligence Laboratory) และยังได้รับการร่วมมือกับ NASA อีกด้วย โดยจุดประสงค์หลักคือการนำ Quantum Computer มาใช้งานกับ Machine Learning หรือ AI นั่นเอง จนในช่วงปี 2014 Google เริ่มต้นที่จะวิจัย Quantum Computer เพื่อที่จะสร้าง Quantum Processor ของตนเอง โดยใช้ชื่อ “Bristlecone” ซึ่งเดิมที Google ต้องซื้อ Quantum Computer มาจาก D-Wave (เครื่อง D-Wave Two) เพื่อใช้ในงานวิจัย

มันทำงานอย่างไร ?

ในชิปของ Quantum Processor ค่าไฟฟ้าจะถูกสะท้อนไปมาในวงจรที่มีรูปแบบพิเศษ ซึ่งถูกสร้างจากอลูมิเนียมบนชิปซิลิกอน โดยตัววงจรจะตีพลังงานกลับไปกลับมาด้วยพลังงานไฟฟ้าที่แตกต่างกัน 2 ค่าคือ “0” และ “1” เพื่อที่จะแปลงเปลี่ยนเป็นค่าสถานะควอนตัม แต่ละชิปของ Quantum Processor นั้นจะมี Qubits จำนวนมาก ซึ่งแต่ละ Qubit จะต้องกำหนดตัวเองเป็น 1 สถานะควอนตัม แต่จะต้องมี 2 ระดับในนั้น และเมื่อมีอนุภาคอื่น ๆ มาจับคู่เพื่อเกิดปฏิกิริยากับ Qubit แล้ว จะทำให้สถานะควอนตัมใน 2 ระดับนั้น ถูกแยกออกจากกันได้ตามอุดมคติ เกิดเป็น Clean Qubit Environment และเรายังสามารถควบคุมตัว Qubits เหล่านั้นให้มันจับคู่กัน หรือแลกเปลี่ยนพลังงานได้ตามความต้องการ

แล้วอะไรคือ Clean Qubit Environment ?

หากเราไม่ได้ใช้งาน Qubit ตัวมันจะต้องมีสถานะคงที่ กล่าวได้ว่า Qubit จะต้องไม่มีปฏิกิริยาเกิดขึ้นกับอนุภาคอื่น ๆ เลย จนกว่าเราจะใช้งานมันตามความต้องการเฉพาะ และนี่เป็นหนึ่งในวิธีการสร้าง Quantum Computer นักวิทยาศาสตร์จะต้องสร้างวงจรไฟฟ้าของ Qubit ด้วยสภาวะ “Superconductor” หรือสภาวะที่เป็นสื่อนำแบบยิ่งยวด (นั่นแปลว่าอัตราการสูญเสียค่าพลังงานไฟฟ้าในวงจรไฟฟ้านี้จะน้อยมาก ๆ และมันสำคัญอย่างไรจะอธิบายในหัวข้อถัดไป) และสภาวะ Superconductor นี้ จะทำงานได้ในอุณหภูมิที่ต่ำมาก ๆ โดยนักวิทยาศาสตร์จะใช้อุปกรณ์ที่เรียกว่า Cryostat (อุปกรณ์ที่ทำให้เกิดสภาพแวดล้อมอุณภูมิที่ต่ำมาก ๆ) ทำให้อุณภูมิคงที่ที่อุณภูมิ 50 องศามิลลิเควิน หรือประมาณ -273.1 องศาเซลเซียส และยังต้องอาศัยสภาวะสุญญากาศ ที่จะทำให้เกิด Clean Qubit Environment อีกด้วย

อธิบายการทำงานของ Quantum Computer ทั้งหมดแบบคร่าว ๆ

โดยเครื่อง Cryostat จะเป็นเครื่องแบบพิเศษที่ถูกออกแบบมาใช้งานกับ Quantum Processor โดยเฉพาะ ซึ่งประกอบด้วยชั้นแผงหลาย ๆ ชั้น มันจะทำงานแบบจากด้านบนไล่ลงไปด้านล่าง โดยส่วนด้านบนจะเป็นส่วนที่มีอุณหภูมิสูงที่สุด และค่อย ๆ เย็นลงไปจนสุดด้านล่าง ทั้งหมดนี้เพื่อสร้างความเย็นที่เอื้อต่อระบบการทำงานของ Quantum Processor

อุปกรณ์ทั้งหมดจะถูกติดตั้งรอบ ๆ แผงที่เป็นชั้นเหล่านั้น และด้านส่วนล่าง ที่เป็นส่วนที่เย็นที่สุดจะถูกติดตั้งด้วย Quantum Processor นั่นเอง ซึ่งแต่ละชิป Qubit ทั้งหมดจะต้องถูกต่อเข้ากับเครื่อง Cryostat ผ่านสายที่จะหล่อเลี้ยงให้อยู่ในระดับอุณหภูมิที่ระบบต้องการ และสายเหล่านั้นยังใช้เพื่อเชื่อมต่อเพื่อระบุค่าสัญญาณของ Qubits ที่เข้าออกจากตัว Quantum Processor อีกด้วย โดยจะมีคอมพิวเตอร์ที่อยู่ด้านนอกควบคุมการส่ง และอ่านสัญญาณ Qubits ที่สร้างด้วยสัญญาณไมโครเวฟรูปแบบเฉพาะด้วยคอมพิวเตอร์อีกทีหนึ่ง (เป็นส่วนสำคัญว่าทำไม Quantum Processor ต้องทำงานในระดับที่มีความเย็นต่ำมาก เพราะต้องการให้เกิดการสูญเสียสัญญาณให้น้อยมากที่สุด)

Quantum Computer Supremacy คืออะไร ?

Quantum Computer Supremacy เป็นเหมือนจุดสูงสุดในการพัฒนาเทคโนโลยีคอมพิวเตอร์ควอนตัม โดยนิยามนี้เริ่มจากการทดลองลดอัตราการเกิดข้อผิดพลาดในระบบ ซึ่งปกติจะเกิดข้อผิดพลาดอยู่บ้างจากการลัดกันของวงจร โดยตอนแรกสามารถแก้ปัญหานี้ได้โดยการปรับค่าของวงจรควอนตัมให้ถูกต้อง ด้วยวิธีการจำลองการทำงานของคอมพิวเตอร์ควอนตัม ด้วยซูเปอร์คอมพิวเตอร์ในปัจจุบัน เพื่อหาค่ามาตราฐานสำหรับวงจร และนำมาปรับใช้กับคอมพิวเตอร์ควอนตัม แต่วิธีนี้เมื่อเริ่มจำลองการทำงานที่ซับซ้อนมากขึ้นเรื่อย ๆ ซูเปอร์คอมพิวเตอร์ปกติจะทำงานตามไม่ทัน จึงเกิดนิยาม Quantum Computer Supremacy ขึ้นมา 

ก่อนอื่นจะต้องอธิบายเกี่ยวกับ “Church-Turing Thesis” หรือ “ทฤษฏีการคำนวณ” ก่อน ในทฤษฏีการคำนวณของวิทยาการคอมพิวเตอร์นั้น กล่าวไว้ว่า “การทำงานของคอมพิวเตอร์ทั้งหมดในโลกนี้จะต้องสมมูลกัน” กล่าวคือ ต้องสามารถจำลองซึ่งกันและกันได้ แต่พอนำทฤษฎีการคำนวณนี้มาเทียบกับคอมพิวเตอร์ควอนตัมแล้ว ทฤษฏีนี้มันไม่เป็นจริงเลย ซึ่งคอมพิวเตอร์ควอนตัมสามารถคำนวณได้รวดเร็วอย่างทวีคูณ เพราะฉะนั้นการพิสูจน์ว่าสามารถวิจัยจนสำเร็จในนิยาม “Quantum Computer Supremacy” หรือการทดลองไปถึงจุดขึ้นสูงสุดของเทคโนโลยีคอมพิวเตอร์ควอนตัมได้แล้วนั้นคือการแหกกฏทฤษฏีการคำนวณนี้โดยสิ้นเชิง

โดยวิธีที่จะทดลองว่าสำเร็จได้จริงนั้น Google จะต้องทำการทดลอง ด้วยการนำวงจรไฟฟ้าซับซ้อนวงจรหนึ่งมาทดสอบเวลาในการคำนวณ ทั้งบนคอมพิวเตอร์ควอนตัม และคอมพิวเตอร์ปกติ แล้วนำมาเทียบเพื่อดูความแตกต่างของระยะเวลาในการคำนวณ จนกว่าจะถึงจุดที่คอมพิวเตอร์ปกติที่เทียบกับควอนตัมคอมพิวเตอร์แล้ว คำนวณได้นานเกินไปกว่าช่วงชีวิตคนจะรอไหว หรือก็คือเป็นไปไม่ได้นั่นเอง นั่นถือว่าเป็นการประสบความสำเร็จในการทดสอบคอมพิวเตอร์ควอนตัมขั้นสูงสุดแล้ว

และล่าสุด Google ทดลองจนสำเร็จตามนิยามของ Quantum Computer Supremacy แล้ว โดยใช้ชิปประมวลผลควอนตัมที่ชื่อ Sycamore Processor ซึ่งเจ้าชิปตัวนี้บรรจุ Qubits ไว้ถึง 53 ตัว (น้อยกว่า Bristlecone ที่ 72 แต่ใช้งานได้จริงตามทฤษฏี) ซึ่งจากตัวชิปมีทั้งหมด 53 Qubits แปลว่า ในหนึ่งชิป เกิดได้ทั้งหมด 2 ยกกำลัง 53 ความเป็นไปได้ นั่นแปลว่าในหนึ่งการคำนวณสามารถคำนวณได้ถึง 10,000 ล้านล้าน ความเป็นไปได้เลยทีเดียว โดย Google เคลมว่า มันสามารถคำนวณสิ่งที่ซูเปอร์คอมพิวเตอร์ที่เร็วที่สุดในโลกต้องใช้เวลา 10,000 ปีในการคำนวณ แต่ชิปตัวนี้ใช้เวลาเพียง 3.20 นาที

แล้วเทคโนโลยี Quantum Computer จะส่งผลอะไรต่อโลกนี้บ้าง ?

ในเมื่อประสิทธิภาพของเทคโนโลยีคอมพิวเตอร์ถูกพัฒนาไปมากขนาดนี้ มันจะส่งผลอย่างไรต่อสิ่งรอบตัวเรา หรือโลกใบนี้บ้าง

  • AI ที่สามารถพูดคุย และโต้ตอบได้อย่างแท้จริง

AI ที่สามารถตอบสนองและพูดคุยในปัจจุบัน ยังต้องใช้เวลาในการตอบโต้อยู่บ้าง แต่เมื่อมาถึงยุคของคอมพิวเตอร์ควอนตัน หากนำเทคโนโลยี AI และคอมพิวเตอร์ควอนตัมมาใช้งานร่วมกัน ปัญญาประดิษฐ์เหล่านี้จะสามารถเข้าถึงการคำนวณที่รวดเร็วอย่างมาก ทำให้ตอบโต้มนุษย์ได้อย่างไร้ความหน่วง เสมือนพูดคุยกับมนุษย์ทั่วไปเลยทีเดียว

  • เนื่องด้วยจากเทคโนโลยี AI และ Machine Learning อาจสร้างยาชนิดใหม่ ช่วยชีวิตคนได้เพิ่มขึ้น

ด้วยการคำนวณที่เร็วมาก ทำให้ทุกอุตสาหกรรมส่วนใหญ่ได้รับประโยชน์ รวมถึงวงการแพทย์ด้วย ซึ่งด้วยเทคโนโลยีอย่าง Machine Learning อาจจะเป็นส่วนช่วยในการคำนวณเพื่อหาสูตรยาชนิดใหม่ที่นำมาใช้รักษาโรคที่ยังไม่มีทางรักษาในปัจจุบัน หรือมีอยู่แล้ว แต่ช่วยลดต้นทุนลงได้

  • ระบบความปลอดภัยที่ซับซ้อนจนแทบไม่สามารถเจาะได้

นอกจากคอมพิวเตอร์ควอนตัมจะมีประสิทธิภาพในการคำนวณที่รวดเร็วมากแล้ว ยังมีประโยชน์ต่อระบบความปลอดภัยอย่างมากด้วย เพราะการแฮกระบบคอมพิวเตอร์ควอนตัมนั้นแทบจะเป็นไปไม่ได้เลย ด้วยระบบ Quantum Key และระบบ Quantum Safe Alrorithm ซึ่งจริง ๆ ในปัจจุบันมีบริการที่เริ่มใช้การเข้ารหัสด้วยระบบ QSC (Quantum- Safe Cryptography) อย่าง ETSI

  • สามารถแก้ปัญหาทางวิทยาศาตร์ที่มีข้อถกเถียงกันมานานในปัจจุบัน

ในเมื่อคอมพิวเตอร์ควอนตัมสามารถคำนวณได้อย่างรวดเร็ว ปริศนาทางวิทยาศาสตร์หลาย ๆ อย่างที่ยังไม่ได้แก้ปริศนา อาจจะถูกแก้ไขได้รวดเร็วขึ้น ทำให้ข้อถกเถียงในปัจจุบันเกี่ยวกับปัญหา และปริศนาเหล่านั้นหายไป

สรุปแล้ว Google สามารถพัฒนา Quantum Computer ไปถึงจุด “Quantum Supremacy” ได้แล้วจริงหรือ ?

ทาง IBM ได้ออกมาแย้งว่า Google อาจจะยังไม่ได้พัฒนาไปถึงขั้นนั้น หรือพูดง่าย ๆ ว่า Google อาจจะโม้ว่าทำได้แล้ว โดย IBM ได้ออกมาโชว์จำลองการคำนวณโปรแกรมอัลกอริทึมที่ชื่อ Schrödinger-Feynman ซึ่งเป็นตัวเดียวกับที่ Google เคลมว่าหากเป็นคอมพิวเตอร์ปกติ จะต้องใช้เวลาถึง 10,000 ปีในการคำนวณ แต่ด้วยโมเดลของ IBM ที่จำลองขึ้นมาด้วยซูเปอร์คอมพิวเตอร์ธรรมดานั้น ใช้ประโยชน์จากพื้นที่เก็บข้อมูลขนาดใหญ่ สามารถคำนวณอัลกอริทึมนี้ได้ภายในเวลาเพียง 2 วันกว่า และไม่ได้ใช้เวลานานถึง 10,000 ปีตามที่ Google อ้าง

(จริง ๆ ถ้าไม่ได้ใช้โมเดลนั้น ก็น่าจะใช้เวลาถึง 10,000 ปีแหละ แต่ Google ไม่ได้คำนึงถึงตรงนั้น)

แต่ถึงอย่างไรก็ตาม เทคโนโลยีคอมพิวเตอร์ควอนตัมยังต้องใช้เวลาอีกหลายปี กว่าจะถูกพัฒนาจนอยู่ในรูปแบบที่ผู้ใช้งานทั่วไปเข้าถึงได้ โดยกลุ่มแรกที่จะได้เข้าถึงก่อนคือพวกอุตสาหกรรมทั้งหลาย ที่มีกำลังพอจะซื้อเทคโนโลยีเหล่านี้มาใช้งาน เพราะการมาของเทคโนโลยีใหม่ในช่วงแรกจะต้องใช้เงินที่สูงมากในการที่จะได้เข้าถึงมันก่อน

สรุป​งาน: Artificial intelligenec

 

ปัญญาประดิษฐ์  (AI : Artificial Intelligence)  คือ

เครื่องจักร(machine) ที่มีฟังก์ชันทีมีความสามารถในการทำความเข้าใจ เรียนรู้องค์ความรู้ต่างๆ อาทิเช่น การรับรู้  การเรียนรู้ การให้เหตุผล และการแก้ปัญหาต่างๆ  เครื่องจักรที่มีความสามารถเหล่านี้ก็ถือว่าเป็น ปัญญาประดิษฐ์  (AI : Artificial Intelligence) นั่นเอง

เพราะฉะนั้นจึงสามารถกล่าวได้ว่า AI ถือกำเนิดขึ้นเมื่อเครื่องจักรมีความสามารถที่จะเรียนรู้นั่นเอง  ซึ่ง AI ก็ถูกแบ่งออกเป็นหลายระดับตามความสามารถหรือความฉลาด  โดยจะวัดจากความสามารถในการ ให้เหตุผล การพูด และทัศนคติของ AI ตัวนั้นๆ เมื่อเปรียบเทียบกับมนุษย์อย่างเราๆ

AI ถูกจำแนกเป็น 3 ระดับตามความสามารถหรือความฉลาดดังนี้

1 ) ปัญญาประดิษฐ์เชิงแคบ (Narrow AI ) หรือ ปัญญาประดิษฐ์แบบอ่อน (Weak AI) : คือ  AI ที่มีความสามารถเฉพาะทางได้ดีกว่ามนุษย์(เป็นที่มาของคำว่า Narrow(แคบ) ก็คือ AI ที่เก่งในเรื่องเเคบๆหรือเรื่องเฉพาะทางนั่นเอง)  อาทิ เช่น AI ที่ช่วยในการผ่าตัด(AI-assisted robotic surgery)  ที่อาจจะเชี่ยวชาญเรื่องการผ่าตัดกว่าคุณหมอยุคปัจจุบัน  แต่แน่นอนว่า AIตัวนี้ไม่สามารถที่จะทำอาหาร ร้องเพลง หรือทำสิ่งอื่นที่นอกเหนือจากการผ่าตัดได้นั่นเอง  ซึ่งผลงานวิจัยด้าน AI ณ ปัจจุบัน ยังอยู่ที่ระดับนี้

2 ) ปัญญาประดิษฐ์ทั่วไป (General AI )  : คือ AI ที่มีความสามารถระดับเดียวกับมนุษย์ สามารถทำทุกๆอย่างที่มนุษย์ทำได้และได้ประสิทธิภาพที่ใกล้เคียงกับมนุษย์

3) ปัญญาประดิษฐ์แบบเข้ม (Strong AI ) : คือ AI ที่มีความสามารถเหนือมนุษย์ในหลายๆด้าน

จะเห็นได้ว่าวิทยาการของมนุษย์ปัจจุบันอยู่ที่จุดเริ่มต้นของ AI เพียงเท่านั้น

ปัจจุบัน ได้มีการนำ AI มาใช้ในอุตสาหกรรมจำนวนมาก  โดย "แมคคินซีย์แอนด์คอมปะนี (McKinsey & Company) "  (บริษัทที่ปรึกษาด้านการบริหารชั้นนำของโลก  )  ได้กล่าวไว้ว่า " AI มีศักยภาพในการทำเงินได้ถึง 600 ล้านดอลล่าร์สหรัฐในการขายปลีก  สร้างรายได้มากขึ้น 50 เปอร์เซนต์ในการธนาคารเมื่อเทียบกับการใช้เทคนิควิเคราะห์เเบบอื่นๆ  และสร้างรายได้มากกว่า 89 เปอร์เซนต์ ในการขนส่งและคมนาคม "

ยิ่งไปกว่านั้น หากฝ่ายการตลาดขององค์กรต่างๆ หันมาใช่ AI จะเป็นการเพิ่มศักยภาพให้กับการทำงานด้านการตลาดอย่างมาก เพราะว่า AI สามารถที่จะทำงานที่ซ้ำซากได้อย่างอัตโนมัติ ส่งผลให้ตัวแทนจำหน่าย สามารถที่จะโฟกัสไปที่การสนทนากับลูกค้า อาทิเช่น บริษัทนามว่า " Gong " มีบริการที่เรียกว่า "conversation intelligence"  , โดยทุกๆครั้งที่ตัวแทนจำหน่ายต่อสายคุยโทรศัพท์กับลูกค้า AIจะทำหน้าที่ในการบันทึกเสียงเเละวิเคราะห์ลูกค้าในขณะเดียวกัน มันสามารถแนะนำได้ว่าลูกค้าต้องการอะไร ควรจะคุยเเบบไหน ถือเป็นการซื้อใจลูกค้าอย่างหนึ่ง

     โดยสรุป , ปัญญาประดิษฐ์หรือ AI เป็นเทคโนโลยีที่ล้ำสมัยที่สามารถรับมือกับปัญหาที่ซับซ้อนเกินกว่าที่มนุษย์จะสามารถรับมือได้  เเละ AI ยังเป็นเครื่องมือที่สามารถทำงานที่ซ้ำซากน่าเบื่อแทนมนุษย์ได้อย่างดีเยี่ยม ช่วยให้เราสามารถมีเวลาไปโฟกัสงานที่สำคัญและสามารถสร้างมูลค่าได้มากกว่า นอกจากนี้การประยุกต์ใช้ AI ในระดับอุตสาหกรรม ยังช่วยลดต้นทุนเเละเพิ่มรายได้มหาศาล

ประวัติย่อของ AI

AI เป็นคำยอดฮิตที่ปัจจุบัน แม้ว่ามันไม่มันจะไม่ใช่คำที่เพิ่งถูกบัญญัติขึ้นมาใหม่แต่อย่างใด ในปี 1956 , กลุ่มของผู้เชี่ยวชาญแนวหน้าจากหลายๆวงการได้ร่วมกันทำงานวิจัยเกี่ยวกับ AI มีผู้นำทีมได้แก่ John McCarthy (Dartmouth College), Marvin Minsky (Harvard University), Nathaniel Rochester (IBM) และ Claude Shannon (Bell Telephone Laboratories) โดยมีจุดประสงค์หลักของงานวิจัย คือ  การค้นหามุมมองและหลักการต่างๆที่ใช้การเรียนรู้อย่างครอบคลุมเพื่อที่จะนำมาประยุกต์ใช้ให้เครื่องจักรสามารถเรียนรู้ได้เช่นกัน

โดยมีเนื้อหาของโครงการมีดังนี้

1.) คอมพิวเตอร์อัตโนมัติ (Automatic Computers)

2.) จะสามารถเขียนโปรเเกรมคอมพิวเตอร์โดยใช้ภาษาคอมพิวเตอร์ได้อย่างไร ( How Can a Computer Be Programmed to Use a Language?)

3.) โครงข่ายประสาทเทียม (Neural Nets )

4.) การพัฒนาด้วยตนเอง (Self-improvement )

องค์ความรู้เหล่านี้เป็นองค์ความรู้พื้นฐานที่ทำให้คอมพิวเตอร์มีความฉลาดมากขึ้น และยังทำให้ความคิดที่จะการสร้าง AI มีความเป็นไปได้มากยิ่งขึ้น

ชนิดของ AI (Type of Artificial Intelligence)                                                                                 AI ถูกแบ่งออกเป็น 3 sub field  ได้แก่

1) ปัญญาประดิษฐ์ (Artificial Intelligence)

2) การเรียนรู้ของเครื่อง (Machine learning)

3) การเรียนรู้เชิงลึก (Deep Learning)

Machine Learning                                                                                                            คือ ศาสตร์ของการศึกษา วิธีการคิด ( algorithm ) ที่ใช้ในการเรียนรู้ (learn) จากตัวอย่าง (example) และ ประสบการณ์ (experience)  โดยมีพื้นฐานมาจากหลักการที่เชื่อว่า ทุกสิ่งอย่างมีรูปแบบหรือแบบแผน ( pattern ) ที่สามารถบ่งบอกความเป็นไปของสิ่งนั้นๆ ซึ่งเราสามารถที่จะนำแบบแผนนี้ มาประยุกต์ใช้เพื่อทำการทำนายถึงความเป็นไปในอนาคตได้ ( prediction ) อาทิเช่น การใช้ machine learning ในการทำนายราคาหุ้นในอนาคต จากข้อมูลกราฟในอดีตและปัจจุบัน

Deep Learning

เป็นซับเซตของ Machine Learning  โดย Deep Learning นั้นไม่ได้หมายความว่า มันคือการทำความเข้าใจองค์ความรู้( knowledge)ในเชิงลึก แต่หมายถึงการที่เครื่องจักร(machine)ใช้หลายๆเลเยอร์(layer)ที่แตกต่างกัน ในการทำความเข้าใจหรือเรียนรู้ข้อมูล โดยความซับซ้อนของโมเดล(model) ก็แปรผันตามจำนวนของเลเยอร์(layer)   ยกตัวอย่างเช่น  บริษัทกูเกิล ใช้ LeNet model ในการวิเคราะห์และทำความเข้าใจภาพ (Image recognition)  โดยมีการใช้เลเยอร์ทั้งหมด 22 เลเยอร์  โดยใน Deep learning , จะมีเฟสของการเรียนรู้ ( learning phase )ที่ถูกสร้างขึ้นโดย Neural Network ซึ่งอาจเรียกได้ว่าเป็นสถาปัตยกรรมของ layer ที่แต่ละ layer ซ้อนทับกันอยู่ ( stack )

AI vs. Machine Learning

ในปัจจุบัน อุปกรณ์(device)ที่เราใช้ในชีวิตประจำวัน ไม่ว่าจะเป็นสมาร์ทโฟน หรือ เเม้กระทั้งอินเทอร์เน็ตก็มีการประยุกต์ใช้ AI  ในหลายครั้งๆ เวลาที่บริษัทใหญ่ๆจะประกาศให้โลกรับรู้ถึงนวัตกรรมใหม่สุดของพวกเขา พวกเขามักจะใช้คำว่า AI หรือ machine learning เสมือนว่ามันเป็นคำที่ใช้เเทนกันได้ แต่อันที่จริงเเล้ว AI กับ machine learning นั้นมีข้อแตกต่างกันบางประการ

" AI- artificial intelligence คือ วิทยาศาสตร์ของการฝึกฝน (train) เครื่องจักร (machine ) โดยมีจุดประสงค์เพื่อแก้ไขปัญหาของมนุษย์  "  ถูกนิยามเมื่อ 1950s  เมื่อเหล่านักวิทยาศาสตร์เริ่มให้ความสนใจกับปัญหาที่ว่า "คอมพิวเตอร์สามารถแก้ไขปัญหาด้วยตัวเองได้อย่างไร" (how computers could solve problems on their own.)

ถ้าจะให้อธิบายอย่างง่ายๆ  AI ก็คือ คอมพิวเตอร์ที่มีคุณสมบัติและความสามารถคล้ายมนุษย์อีกทั้งยังสามารถทำงานได้อย่างลงตัว (seamlessly) หรือ อาจเรียกได้ว่า AI ก็คือ วิทยาศาสตร์ของการเลียนแบบทักษะของมนุษย์

 Machine learning เป็นเพียงซับเซ็ตของ AI ที่จะเจาะจงไปที่การฝึกฝน(train)เครื่องจักร(machine) โดย machine ก็จะพยายามหารูปแบบ(pattern)ต่างๆของข้อมูล(input data )ที่ถูกใส่เข้ามาเพื่อในการ train , กล่าวโดยสรุป เราไม่จำเป็นต้องเขียนโปรแกรมหรือสร้าง modelขึ้นมาเอง สิ่งที่เราต้องทำก็ให้ข้อมูลหรือตัวอย่างกับตัว machine   เพราะว่า machine จะพยายามสร้าง model ที่ใช้วิเคราะห์ pattern ของข้อมูลที่ได้จากการ train โดยตัวของมันเอง ( เป็นที่มาของคำว่า machine learning นั่นเอง )

แล้ว AI ถูกใช้ที่ไหนบ้าง

ปัจจุบัน ได้มีการนำ AI มาประยุกต์ใช้อย่างกว้างขวาง  อาทิเช่น

การนำเอา AI ไปประยุกต์ใช้ในงานที่ซ้ำซ้อน ยกตัวอย่างเช่น AI ในกระบวนการผลิตต่างๆ  ซึ่งเป็นงานต้องใช้ความปราณีต เเละ ทำเหมือนเดิมตลอดเวลา(จนกว่าจะมีการเปลี่ยนแปลงกระบวนการผลิต ) การนำ AI มาประยุกต์ใช้จะช่วยเพิ่มผลผลิต เเละ ยังลดตวามผิดพลาดในการผลิต เพราะว่า AI  ไม่จำเป็นต้องพักและไม่มีความรู้สึกเหนื่อยล้าอีกทั้งยังไม่มีความรู้สึกเบื่อหน่ายต่องานที่ทำ

การนำเอา AI มาพัฒนาผลิตภัณฑ์(product)ที่มีอยู่แล้ว ก่อนจะถึงยุคของ machine learning , product มักจะอยู่ในรูปแบบของโค้ดเเต่เพียงอย่างเดียว อยากได้อะไร มีฟังก์ชันเเบบไหน ก็ต้องลงมือทำขึ้นมาเองทั้งสิ้น ( hard-code rule ) . ลองนึกถึง facebook สมัยก่อน ที่เวลาเราอัพโหลดรูปภาพ เราต้องเสียเวลามานั่งแท็กเพื่อนทีละคนๆ แต่ปัจจุบัน facebook มี AI ที่ช่วยในการแท็กรูปได้อย่างอัตโนมัติ

ปัจจุบัน AI ได้ถูกนำมาประยุกต์ใช้ในเกือบทุกอุตสาหกรรม ตั้งแต่ระดับการตลาด(marketing) ไปถึงระดับห่วงโซ่อุปทาน(supply chain ) , การเงิน (finance ) , การกระบวนการทำอาหาร (food-processing sector )  จากผลสำรวจของบริษัท McKinsey  พบว่า การให้บริการให้การเงิน (financial services ) และการสื่อสารด้วยเทคโนโลยีล้ำสมัย ( high tech communication ) เป็นด้านที่มีการใช้ AI เป็นระดับแนวหน้า เมื่อเทียบกับด้านอื่นๆ

ทำไม AI ถึงเป็นเทรนด์ที่มาแรงในปัจจุบัน

neural network เป็องค์ความรู้ที่เกิดขึ้นตั้งเเต่ปี 1990s จากผลงานวิจัยของคุณ Yann LeCun  แต่อย่างไรก็ตาม neural network ก็เพิ่งมาเป็นที่นิยมเมื่อปี 2012    ทำไมถึงเป็นเช่นนั้น ? เราจะอธิบายให้ฟังถึง 3 ปัจจัย ดังต่อไปนี้

1 ) Hardware

2) Data

3) Algorithm

Machine learning นั้นก็เป็นศาสตร์แห่งการทดลองและลงมือทำศาสตร์ เราจำเป็นต้องหาข้อมูลและวิธีการต่างๆจำนวนมากเพื่อมาทำการ train  หลังจากที่กระแสการใช้งานอินเทอร์เน็ตถูกแผร่หลาย ข้อมูลต่างๆก็สามารถเข้าถึงได้ง่ายขึ้น นอกจากนี้เรื่อง CPU หรือ GPU ที่ใช้ในการประมวลผลก็สำคัญในการใช้ train และ test model ต่างๆ ซึ่งปัจจุบันก็มี GPU gaming  ที่มีเสปคที่สูง วางขายอยู่ตามร้านค้าทั่วไปอีกต่างหาก เช่น GPU gaming ของ NVIDIA และ AMD

Hardware

ตลอด 20 ปีที่ผ่านมา , CPU ของเราสามารถ train  deep-learning model ที่เป็น model ขนาดเล็กๆผ่านlaptop ก็จริง แต่อย่างไรก็ตาม มันไม่เพียงพอต่อการประมวลผลของ deep-learning model  ที่ใช้สำหรับ computer vision หรือ deep learning  ซึ่งต้องยกความดีความชอบแก่ผู้ผลิต GPU อย่าง NVIDIA และ AMD ที่สร้าง GPU รุ่นใหม่ที่สามารถทำการคำนวณหรือประมวลผลแบบคูขนานได้ ( parallel computation ) ซึ่งสามารถช่วยในการยกระดับความเร็วในการประมวลผลอย่างมาก

ตัวอย่างเช่น NVIDIA TITAN X  ใช้เวลาเพียง 2 วันในการ train model " ImageNet " ซึ่ง CPU แบบดั่งเดิมใช้เวลาถึงหลายสัปดาห์  , นอกเหนือจากนี้ บริษัทใหญ่ๆหลายบริษัทเลือกที่จะใช้ cluster of GPU ในการ train deep learning  model โดยใช้เป็น NVIDIA Tesla K80 เพราะว่าจะช่วยลดต้นทุนในการดูแลรักษาศูนย์ข้อมูล (data center ) อีกทั้งยังได้ประสิทธิภาพที่ดียิ่งขึ้น

Data

ถ้าเปรียบ neural network เป็นรถยนต์ (model นั้นๆ)   ข้อมูล(data) ก็เปรียบเสมือนน้ำมันของ model ที่สามารถทำให้มันขับเคลื่อนได้ ปราศจากน้ำมัน (data) รถยนต์ (model )ก็ไม่สามารถทำอะไรได้เลย ปัจจุบัน เทคโนโลยีใหม่ๆได้ทำลายขีดจำกัดของการเก็บข้อมูลแบบเดิมๆ เราไม่จำเป็นต้องเก็บข้อมูลขนาดใหญ่ๆไว้ที่ data center อีกต่อไป

การปฎิวัติอินเทอร์เน็ต (internet revolution ) ทำให้สามารถที่จะเก็บและแจกจ่ายข้อมูลแหล่งข้อมูลมากมายเพื่อนำข้อมูลมาเข้า machine learning algorithm , ถ้าคุณมีประสบการณ์กับแอพลิเคชันที่เกี่ยวข้องกับการจัดการรูปภาพอย่าง Flickr หรือ Instagram  คุณคงจะได้เห็นศักยภาพของ AI มาบ้าง เพราะว่า แอพพลิเคชันเหล่านี้ต้องจัดการกับการรูปภาพที่สามารถแท็กได้เป็นหลายๆล้านรูป ซึ่งรูปๆเหล่านี้ก็สามารถถูกนำมาใช้ในการ train model  เพื่อทำการรับรู้และแยกแยะ  (recognize) วัตถุต่างๆบนรูป ปราศจากการนำข้อมูลมาจัดเก็บก่อนแบบ

การผสมผสานระหว่าง AI และ  ข้อมูลที่ดี (data) ก็เปรียบเสมือนทองคำดีๆนี่เอง เพราะว่า AI เป็นวิธีการใช้ข้อมูลได้อย่างตอบโจทย์ผู้คนได้มากที่สุด แต่ไม่ว่าบริษัทไหนก็สามารถจะมีเทคโนโลยี หรือ AI ที่ความสามารถทัดเทียมกันได้ (เทคโนโลยีเป็นสิ่งที่สามารถซื้อได้) เพราะฉะนั้นเเล้ว ข้อมูลจึงเป็นตัวแปรสำคัญมากๆ เพราะฉะนั้น บริษัทหรือองค์กรที่มีข้อมูลที่เป็นประโยชน์มากกว่าย่อมกุมความได้เปรียบ

เชื่อไหมครับว่า ข้อมูลถูกสร้างขึ้นใหม่โดยเฉลี่ยประมาณ 2.2 exabytes หรือ  2.2ล้าน gigabytes  ในแต่ละวัน  จึงไม่แปลกที่เหล่าบริษัททั้งหลายจะแสวงหาแหล่งข้อมูเหล่านี้มาใช้ให้เกิดประโยชน์  ( นำข้อมูลมา train model เพื่อหา pattern เพื่อ predict เรื่องนั้นๆ )

Algorithm

ถึงแม้ว่า  hardware จะมีประสิทธิภาพดีกว่าเดิมหลายเท่าตัว และข้อมูลก็สามารถเข้าถึงได้ง่าย , อย่างไรก็ตาม machine learning algorithm ก็ยังเป็นสิ่งที่ต้องให้ความสำคัญอย่างมาก ทำไมถึงเป็นเช่นนั้น ? ลองภาพนึกถึง กระบวนการคิดหรือ algorithm ที่ผิดตั้งแต่การใช้ตรรกะ หรือ algorithm ที่ทำงานเเบบซ้ำซ้อนจนเกินไป ต่อให้เรามีข้อมูลหรือ hardware ที่ทรงพลังมากแค่ไหน ก็คงสร้าง model ที่มีความแม่นยำสูงๆไม่ได้ , โดย algorithm ของ neural network ที่ถูกพัฒนาให้แม่นยำมากยิ่งขึ้นนี่แหละเป็นหนึ่งในเหตุผลที่ทำให้ neural network ได้รับการยอมรับ โดย neural network แบบดั่งเดิมนั้นเป็นเพียง algorithm ที่ถูกสร้างจากการคูณ matrix แบบง่ายๆ

ยกตัวอย่าง algorithm ที่มีการใช้ใน AI อย่างแพร่หลายในปัจจุบัน เช่น progressive learning algorithm เป็น algorithm ที่ทำให้คอมพิวเตอร์เรียนรู้อยู่ตลอดเวลา ซึ่งจะช่วยในการรับมือกับปัญหาต่างๆได้อย่างดี เช่น การหาข้อผิดพลาดของระบบ และ การสร้าง chatbot ที่สามารถโต้ตอบกับเราได้ราวกับว่าคุยกับคนจริงๆ  (เพราะมันเรียนรู้วิธีการโต้ตอบมาจากผู้คนที่เคย chat กับมันในอดีต )

สรุป

Artificial intelligence กับ machine learning เป็น 2 คำที่ทำให้คุณอาจสับสนได้ในตอนแรก แต่เราคาดหวังว่าเมื่อคุณได้ทำความเข้าใจเนื่้อหาของบทความ คุณจะสามารถแยกแยะ 2 คำนี้ออกจากกันได้  Artificial intelligence (AI) เป็นวิทยาศาสตร์ในการฝึกฝนเครื่องจักร( train machine )ให้มีทักษะคล้ายคลึงกับมนุษย์ โดยวิธีในการ train machine ก็มีอยู่หลากหลายวิธีการเช่นกัน ในยุคเริ่มต้นของ AI เราใช้วิธีการที่เรียกว่า hard-coded programs หรือ การเขียนโค้ดที่เป็นตรรกะทุกสิ่งอย่างที่คาดว่า machine จะเผชิญกับมัน (ให้ลองนึกภาพถึงหุ่นยนต์ที่ถูกเขียนโปรแกรมมาด้วยการใช้ if-else condition เป็นหลักพัน condition แน่นอนว่าหุ่นยนต์อาจจะสามารถทำงานได้อย่างดีภายใต้คำสั่งนั้นๆ เเต่เมื่อ ระบบมีความซับซ้อนมากขึ้น หรือ เราอยากจะเพิ่มเติมฟังก์ชันไหน ถึงตอนนั้นเราจะสามารถทำได้อย่างยากลำบาก เพราะต้องจัดการกับโค้ดจำนวนมาก ) เพื่อที่จะแก้ปัญหานี้ จึงเกิดเป็นไอเดียของ machine learning หรือก็คือให้ machine เรียนรู้หรือปรับตัว (train) ให้เข้ากับข้อมูลหรือสภาพแวดล้อมที่ได้รับ (input data ) และ feature ที่สำคัญที่สุดที่จะนำมาซึ่ง AI ที่มีประสิทธิภาพ คือการมีข้อมูลที่เพียงพ่อต่อการ train ยกตัวอย่างเช่น AI สามารถเรียนรู้ได้หลากหลายภาษาตราบใดที่มีคำศัพท์ที่เพียงพอที่จะนำมา train

นอกจากนี้ AI ยังเป็นเทคโนโลยีที่ล้ำสมัยที่มีนักลงทุนจำนวนมากยอมที่จะเสี่ยงวางเงินหลักหลายล้านดอลลาร์ในการลงทุนใน startup หรือ project ที่เกี่ยวข้องกับ AI อีกทั้ง McKinsey  ได้ทำการประเมินว่า AI จะทำการขับเคลื่อนทุกๆอุตสาหกรรมให้เติบโตในอัตรา 10 - 99 เปอร์เซนต์ เป็นอย่างน้อย


งานที่2

 เกลียว ชนิดและส่วนต่างๆของเกลียว เกลียว ( Thread)  หมายถึงสันหรือร่องที่เกิดขึ้นบนผิวงานวนไปรอบ ๆจะซ้ายหรือขวาก็ไดด้วยระยะทางที่สม่ำเสมอ เ...