แอปเปิ้ลยังคงดูเหมือนคนจรจัดที่ aerpods สิ่งนี้สมเหตุสมผลเพราะหูฟังยังคงนำมาซึ่งหลายพันล้านสำหรับ Apple ในแต่ละปีและการแข่งขันในตลาดเอิร์ลกำลังเติบโต
การแข่งขันครั้งนี้ยังหมายความว่าบาง บริษัท มีฟังก์ชั่นบางอย่างที่ Apple ยังไม่ได้ดำเนินการ ในกรณีนี้มีคุณสมบัติที่ Samsung Galaxy Ear Stabs และ Google Pixel Blashes มีที่ Apple จะรายงานไปยัง AirPods ในไม่ช้า
ตามรายงานของ Bloomberg นี่เป็นฟังก์ชั่นใหม่ที่มาถึง AirPods ในปีนี้ แผนเริ่มต้นของ Apple คือการออกฟังก์ชั่นการแปลสดในการอัปเดต AirPods ในอนาคตซึ่งอาจมีการเปิดตัว iOS 19
Apple ไม่ได้ตอบขอความคิดเห็นในฟังก์ชั่นนี้ทันที
เห็นได้ชัดว่าผู้ผลิต iPhone มีฟังก์ชั่น AirPods ที่แตกต่างกันในการทำงาน แต่อาจจะไม่ปรากฏในหูฟังในอนาคตอันใกล้ ฟังก์ชั่นนี้รวมถึงการเพิ่มกล้องลงใน AirPods เพื่อรับรายละเอียดจากสภาพแวดล้อมโดยรอบ ฟังก์ชั่นนี้ส่วนใหญ่จะขึ้นอยู่กับปัญญาประดิษฐ์ซึ่งตอนนี้ Apple มีปัญหาบางอย่างเนื่องจาก บริษัท เพิ่งล่าช้าการตรวจสอบหลักของ Siri นอกจากนี้ยังไม่ชัดเจนว่ากล้องเหล่านี้จะใช้ได้กับ AirPods Max ที่ใหญ่กว่าหรือไม่หรือว่า Apple จะหาวิธีที่จะรวมไว้ในหูฟัง AirPods
การแปลสดทำงานอย่างไร?
รายงานไม่ได้มีข้อมูลโดยละเอียดเกี่ยวกับวิธีการแปลสดจะทำงานกับ AirPods แต่ฟังก์ชั่นสามารถทำงานได้เช่นเดียวกับวิธีการทำงานกับตากาแลคซีและตาพิกเซล
ในทั้งสองกรณีโทรศัพท์เพื่อแปลโทรศัพท์ทำการแปลจริง หลังจากเปิดใช้งานแอปพลิเคชันจะแปลลิ้นและส่งการแปลนี้ลงในหูโดยตรง เขาจะยกสิ่งที่คนที่สวมใส่ Earlings พูดและแปลเป็นลิ้นที่อีกฝ่ายพูด สิ่งนี้ทำให้การแปลราบรื่นขึ้นเพราะคนที่สวมใส่ตาสามารถอนุญาตให้บุคคลอื่นเก็บโทรศัพท์ด้วยแอปพลิเคชันเริ่มต้นแทนที่จะส่งกลับไปที่นั่น
Apple อาจปรับปรุงกระบวนการให้มากขึ้น แต่จะไม่อธิบายตราบใดที่ฟังก์ชั่นถูกปล่อยออกมา ฟังก์ชั่นนี้สามารถแสดงได้ในเดือนมิถุนายนที่การประชุมระดับโลกของโปรแกรมเมอร์ Apple