รถที่ขับเองของคุณจะถูกตั้งโปรแกรมให้ฆ่าคุณหรือไม่ ถ้านั่นหมายถึงการช่วยชีวิตคนแปลกหน้ามากขึ้น?

โดย: SD [IP: 193.37.254.xxx]
เมื่อ: 2023-03-23 17:22:58
ปริศนาทางจริยธรรมนี้เป็นที่รู้จักกันทั่วไปว่าเป็นปัญหารถเข็น เป็นหัวข้อมาตรฐานในวิชาปรัชญาและจริยธรรม เพราะคำตอบของคุณบ่งบอกได้มากมายเกี่ยวกับวิธีที่คุณมองโลก แต่ในศตวรรษที่ 21 นักเขียนหลายคนได้ปรับสถานการณ์ให้เข้ากับความหลงใหลในสมัยใหม่: ยานพาหนะที่เป็นอิสระ รถยนต์ไร้คนขับของ Google ขับไปแล้ว 1.7 ล้านไมล์บนถนนในอเมริกา และไม่เคยเป็นสาเหตุของอุบัติเหตุในช่วงเวลาดังกล่าว บริษัทกล่าว Volvo กล่าวว่าจะมีรถยนต์ขับเคลื่อนอัตโนมัติบนทางหลวงของสวีเดนภายในปี 2560 Elon Musk กล่าวว่าเทคโนโลยีดังกล่าวใกล้เข้ามาจนสามารถมี Teslas รุ่นปัจจุบันพร้อมที่จะใช้ "ถนนสายหลัก" ภายในฤดูร้อนนี้ ใครดูนักดู? เทคโนโลยีอาจมาถึงแล้ว แต่เราพร้อมหรือยัง? รถยนต์ของ Google สามารถรับมือกับอันตรายในโลกแห่งความจริงได้อยู่แล้ว เช่น รถยนต์หักเลี้ยวกะทันหัน แต่ในบางสถานการณ์ การชนเป็นสิ่งที่หลีกเลี่ยงไม่ได้ (อันที่จริง รถยนต์ของ Google ประสบอุบัติเหตุเล็กน้อยหลายสิบครั้ง ซึ่งทั้งหมดนี้บริษัทโทษว่าเป็นคนขับ) รถยนต์ของ Google หรือวอลโว่ที่มีความปลอดภัยสูงจะถูกตั้งโปรแกรมให้รับมือกับสถานการณ์ที่ไม่มีทางชนะได้อย่างไร -- บางทียางระเบิด -- ที่ซึ่งต้องเลือกระหว่างการหักเลี้ยวเข้าไปในการจราจรที่สวนมาหรือหักเลี้ยวเข้ากำแพงกันดินโดยตรง? คอมพิวเตอร์จะเร็วพอที่จะทำการตัดสินอย่างมีเหตุผลภายในเวลาไม่กี่มิลลิวินาที พวกเขาจะมีเวลาสแกนรถข้างหน้าและระบุรถที่มีโอกาสรอดจากการชนมากที่สุด หรือรถที่มีมนุษย์อยู่ภายในมากที่สุด แต่พวกเขาควรได้รับการตั้งโปรแกรมให้ตัดสินใจได้ดีที่สุดสำหรับเจ้าของหรือไม่? หรือทางเลือกที่มีอันตรายน้อยที่สุด แม้ว่านั่นหมายถึงการเลือกที่จะกระแทกเข้ากับกำแพงกันดินเพื่อหลีกเลี่ยงการชนรถโรงเรียนที่กำลังมาถึง ใครจะเป็นผู้โทรและพวกเขาจะตัดสินใจอย่างไร? "ท้ายที่สุดแล้ว ปัญหานี้กลายเป็นการเลือกระหว่างลัทธิประโยชน์นิยมและลัทธิเทววิทยา" ศิษย์เก่า UAB Ameen Barghi กล่าว Barghi ซึ่งสำเร็จการศึกษาในเดือนพฤษภาคมและกำลังมุ่งหน้าไปยังมหาวิทยาลัยอ็อกซ์ฟอร์ดในฤดูใบไม้ร่วงนี้ในตำแหน่ง Rhodes Scholar คนที่สามของ UAB ไม่ใช่คนแปลกหน้าสำหรับประเด็นขัดแย้งทางศีลธรรม เขาเป็นผู้นำอาวุโสในทีม Bioethics Bowl ของ UAB ซึ่งคว้าแชมป์ระดับประเทศในปี 2558 การโต้วาทีที่ชนะของพวกเขารวมถึงหัวข้อต่างๆ เช่น การใช้การทดลองทางคลินิกสำหรับไวรัสอีโบลา และจริยธรรมของยาสมมุติที่อาจทำให้ผู้คนตกหลุมรักกันได้ ในการแข่งขัน Ethics Bowl เมื่อปีที่แล้ว ทีมงานได้โต้แย้งคำถามยั่วยุอีกข้อเกี่ยวกับยานยนต์ไร้คนขับ หากปรากฏว่าปลอดภัยกว่ารถยนต์ทั่วไปมาก รัฐบาลจะมีเหตุผลสมควรหรือไม่ที่ห้ามการขับขี่โดยมนุษย์โดยสิ้นเชิง (คำตอบสั้น ๆ ของพวกเขา: ใช่) เสียชีวิตคาที่นั่งคนขับ ดังนั้นรถยนต์ที่ขับเคลื่อนด้วยตนเองของคุณควรถูกตั้งโปรแกรมให้ฆ่าคุณเพื่อช่วยผู้อื่นหรือไม่? รถยนต์ มีแนวทางเชิงปรัชญาสองแนวทางสำหรับคำถามประเภทนี้ Barghi กล่าว “ลัทธินิยมประโยชน์บอกเราว่าเราควรทำในสิ่งที่จะสร้างความสุขให้กับผู้คนจำนวนมากที่สุดเสมอ” เขาอธิบาย กล่าวอีกนัยหนึ่ง หากต้องเลือกระหว่างส่งคุณชนกำแพงคอนกรีตหรือหักเลี้ยวเข้าไปในเส้นทางของรถเมล์ที่กำลังสวนมา รถของคุณควรได้รับการตั้งโปรแกรมให้ทำอย่างเดิม ในทางกลับกัน Deontology ให้เหตุผลว่า "คุณค่าบางอย่างเป็นจริงเสมอ" Barghi กล่าวต่อ “ตัวอย่างเช่น การฆาตกรรมเป็นสิ่งที่ผิดเสมอ และเราไม่ควรทำอย่างนั้น” ย้อนกลับไปที่ปัญหาของรถเข็น “แม้ว่าการเปลี่ยนรถเข็นจะช่วยชีวิตคนได้ 5 คน เราไม่ควรทำเพราะเรากำลังจะฆ่าคน” บาร์กีกล่าว และถึงแม้จะมีโอกาสเกิดขึ้น แต่รถที่ขับเคลื่อนด้วยตัวเองก็ไม่ควรถูกตั้งโปรแกรมให้เลือกที่จะเสียสละคนขับเพื่อป้องกันไม่ให้ผู้อื่นได้รับอันตราย ปัญหารถเข็นทุกรูปแบบ -- และมีมากมาย: จะเกิดอะไรขึ้นถ้าคนๆ เดียวคือลูกของคุณ? ลูกคนเดียวของคุณ? ถ้าคนทั้งห้าเป็นฆาตกรล่ะ? -- เพียงแค่ "ขอให้ผู้ใช้เลือกว่าเขาเลือกที่จะยึดติดกับ deontology หรือ utilitarianism" Barghi กล่าวต่อ ถ้าคำตอบคือลัทธิประโยชน์นิยม ก็จะต้องมีการตัดสินใจอื่น Barghi เสริมว่า: ปกครองหรือกระทำลัทธิประโยชน์นิยม “ลัทธินิยมกฎบอกว่าเราต้องเลือกการกระทำที่เป็นประโยชน์มากที่สุดเสมอ โดยไม่คำนึงถึงสถานการณ์ ดังนั้นสิ่งนี้จะทำให้การเลือกง่ายขึ้นสำหรับปัญหารถเข็นแต่ละรุ่น” Barghi กล่าว: นับรวมบุคคลที่เกี่ยวข้องและเลือกตัวเลือกที่ให้ประโยชน์ ส่วนใหญ่. แต่การกระทำแบบเห็นแก่ประโยชน์นิยม เขาพูดต่อ "บอกว่าเราต้องถือว่าการกระทำแต่ละอย่างเป็นการกระทำย่อยที่แยกจากกัน" นั่นหมายความว่าไม่มีกฎเกณฑ์ที่เข้มงวดและรวดเร็ว แต่ละสถานการณ์เป็นกรณีพิเศษ แล้วจะตั้งโปรแกรมคอมพิวเตอร์ให้จัดการทั้งหมดได้อย่างไร Gregory Pence, Ph.D., ประธานของ UAB College of Arts and Sciences Department of Philosophy กล่าวว่า "คอมพิวเตอร์ไม่สามารถตั้งโปรแกรมให้จัดการทั้งหมดได้ "เรารู้เรื่องนี้โดยพิจารณาจากประวัติศาสตร์ของจริยธรรม Casuistry หรือจริยธรรมคริสเตียนประยุกต์ตาม St. Thomas พยายามให้คำตอบล่วงหน้าสำหรับทุกปัญหาในการแพทย์ มันล้มเหลวอย่างน่าสังเวช ทั้งสองกรณีมีสถานการณ์เฉพาะและเพราะยา เปลี่ยนแปลงตลอดเวลา" เตรียมพร้อมสำหรับสิ่งที่เลวร้ายที่สุด สมาชิกในทีม Ethics and Bioethics ของ UAB ใช้เวลาส่วนใหญ่ในการต่อสู้กับคำถามประเภทนี้ ซึ่งรวมปรัชญาและอนาคตเข้าด้วยกัน ทั้งสองทีมนำโดยเพนซ์ นักจริยธรรมทางการแพทย์ที่มีชื่อเสียงซึ่งฝึกฝนนักศึกษาแพทย์ของ UAB มานานหลายทศวรรษ Barghi กล่าวว่าเพื่อให้ได้ข้อสรุป ทีม UAB มีส่วนร่วมในการอภิปรายอย่างกระตือรือร้น “ร่วมกับความคิดเห็นของดร. เพนซ์ เราโต้แย้งจุดยืนอย่างต่อเนื่อง และทุกคนในทีมก็เล่นเป็นผู้สนับสนุนปีศาจสำหรับคดีนี้” เขากล่าว "เราพยายามที่จะตอกย้ำตำแหน่งที่เป็นไปได้และข้อโต้แย้งต่อกรณีของเราก่อนทัวร์นาเมนต์ให้มากที่สุดเท่าที่เราจะทำได้ เพื่อให้เข้าใจหัวข้อนี้อย่างครอบคลุมที่สุด บางครั้ง เราจะเปลี่ยนจุดยืนของเราโดยสิ้นเชิงเมื่อสองสามวันก่อนทัวร์นาเมนต์เนื่องจาก ข้อมูลบางอย่างที่ไม่เคยพิจารณามาก่อน" ที่เกิดขึ้นในปีนี้เมื่อทีมกำลังเตรียมคดีเกี่ยวกับการติดยาของแพทย์และใบอนุญาตทางการแพทย์ “จุดยืนเดิมของเราคือต้องรับรองความปลอดภัยของคนไข้เป็นลำดับความสำคัญสูงสุด และพยายามปลดแพทย์เหล่านี้ออกจากงานโดยเร็วที่สุด” บาร์กีกล่าว "อย่างไรก็ตาม หลังจากที่เราได้พบกับ ดร.แซนดรา ฟราเซียร์" ซึ่งเชี่ยวชาญด้านปัญหาสุขภาพของแพทย์แล้ว "เราเรียนรู้อย่างรวดเร็วที่จะถือว่าการเสพติดเป็นโรค และเปลี่ยนแนวทางของคดีของเราโดยสิ้นเชิง" Barghi ผู้วางแผนจะเป็นแพทย์-นักวิทยาศาสตร์กล่าวว่าการแข่งขันด้านจริยธรรมเป็นการปฏิบัติที่เป็นประโยชน์สำหรับผู้เชี่ยวชาญด้านการดูแลสุขภาพในอนาคต "แม้ว่าแพทย์จะไม่ได้เตรียมตัวเป็นเวลาหนึ่งเดือนก่อนที่จะมีการตัดสินใจด้านจริยธรรมทุกครั้ง แต่กิจกรรมต่างๆ เช่น ชามจริยธรรมก็จำลองสถานการณ์การดูแลผู้ป่วยในโลกแห่งความเป็นจริงและการตัดสินใจเชิงนโยบาย" Barghi กล่าว "นอกเหนือจากนั้น มันยังช่วยให้คนที่ขี้อายก่อนหน้านี้กลายเป็นคนที่พูดชัดขึ้นและมั่นใจในการโต้เถียงของพวกเขา"

ชื่อผู้ตอบ:

Visitors: 95,159