สิ่งที่ Bard ทำได้ถูกต้องที่ ChatGPT ทำไม่ได้

เมื่อเทียบกับแชทบอทอื่น ๆ ในตลาด Bard ของ Google นั้นน่าเบื่อ

ในการประเมินเชิงบวกไม่มากก็น้อยVox(เปิดในแท็บใหม่)เรียกคำตอบของ Bard ว่า “แห้งแล้งและไม่มีข้อโต้แย้ง” ผลการทดสอบของเราเองอาจแตกต่างกัน แห้ง? อย่างแน่นอน. ไม่ขัดแย้ง? ไม่ใช่ถ้าคุณเกาใต้พื้นผิว

ใช่ บาร์ดเป็นคนน่าเบื่อ…ในทางหนึ่งใช่ ชื่อของ Bard ซึ่งเป็นคำที่ใช้เรียกกวีประเภทหนึ่ง ซึ่งมักจะใช้อ้างอิงถึงเชกสเปียร์ เป็นเรื่องตลกขบขันเมื่อพิจารณาว่าคำตอบของ Chatbot นั้นไร้เหตุผลเพียงใด ตัวอย่างเช่น ฉันขอให้ GPT-3.5, GPT-4 และ Bard เริ่มเขียนเรื่องน่ากลัวข้างกองไฟ แบบจำลองของ OpenAI ยิงไปที่ดวงจันทร์ (ในกรณีเดียว)

Bard ให้ร่างคำตอบแก่ผู้ใช้สามฉบับเสมอ แต่ข้อความแจ้งนี้ให้เพียงสองฉบับเท่านั้น มีสองร่างที่เหมือนกัน “ฉันเห็นบางอย่างในป่าคืนนี้” และการเปลี่ยนแปลงเล็กน้อย: “ฉันได้ยินเสียงในป่าเมื่อคืนนี้” สิ่งเหล่านี้น่าเบื่อและใคร ๆ ก็เรียกมันว่าน่าผิดหวัง

บางครั้งกวีให้คำตอบที่ไม่เป็นที่นิยมสำหรับคำถามที่ขัดแย้งกันการตรงไปตรงมาอย่างจริงจังไม่ได้ทำให้แชทบอทน่าเบื่อเสมอไป ในความเป็นจริงมันสามารถยั่วยุ ยิ่งไปกว่านั้น การอนุญาตให้ตัวเองร่างสามฉบับทุกครั้งที่ตอบ ไม่ว่าจะตั้งใจหรือจงใจ ให้ Bard มีเวลาให้คำตอบที่ตรงไปตรงมาซึ่งบางครั้งก็กล้าได้กล้าเสีย

แบบจำลอง GPT กล่าวว่าจีน และ Bard กล่าวว่าอินเดีย เป็นที่น่าสังเกตว่า Bard จัดทำแบบร่างหนึ่งฉบับจากสามฉบับที่ระบุว่าจีน อย่างไรก็ตาม หลังจากลองอีกห้าครั้ง ฉันไม่สามารถรับโมเดล GPT ที่ระบุว่าอินเดียเลยแม้แต่ครั้งเดียว

บาร์ด “ผิด” หรือไม่? มันขึ้นอยู่กับ. มันบังเอิญมากที่มนุษยชาติอยู่ในหลุมโดนัททางประชากรศาสตร์มาหลายปีในหัวข้อนี้ – นานพอที่จะทำให้อายุสัมพัทธ์ของข้อมูลการฝึกอบรมของแบบจำลองไม่สำคัญ ผู้ต่อต้านบางคนเริ่มพูดว่าจำนวนประชากรของอินเดียแซงหน้าจีนเมื่อประมาณ 5 ปีที่แล้ว(เปิดในแท็บใหม่)แต่อย่างเป็นทางการก็ยังไม่มี เพราะยังไม่มีข้อมูล(เปิดในแท็บใหม่). จีนยังคงเป็นคำตอบที่ถูกต้องบนกระดาษ แต่คำตอบที่ถูกต้องตามสามัญสำนึกอาจเป็นอินเดีย

 

 

Releated