DeepMind โชว์ Gemini เขียน UI อัตโนมัติ ไม่ต้องใส่คำสั่ง อิงจากหน้าจอก่อนหน้า
Body
Google Deepmind โชว์การใช้โมเดล Gemini 2.5 Flash-Lite รุ่นเล็กตัวล่าสุดที่เพิ่งเปิดตัว เขียนโค้ด UI ของซอฟต์แวร์ โดยเป็นการสร้าง UI ขึ้นมาใหม่แบบเรียลไทม์ โดยไม่ต้องสั่งการใดๆ สิ่งที่ Gemini ทำคืออ่านหน้าจอก่อนคลิกไฟล์ แล้วสร้าง UI ของหน้าถัดไปขึ้นมาให้อัตโนมัติ ตอนที่เราคลิกไฟล์นั้นๆ
การสร้าง UI แบบ generate อัตโนมัติแบบนี้ยังมีข้อจำกัดอย่างที่แสดงในคลิป เช่น การกดไอคอนโฟลเดอร์เพื่อเข้าไปดูในโฟลเดอร์ 2 รอบจะเห็นหน้าตา UI ไม่เหมือนกัน
ถึงแม้เดโมนี้เป็นแค่การทดลองและยังไม่พร้อมสำหรับงานโปรดักชัน แต่มันก็แสดงให้เห็นความสามารถของ Gemini (โดยเฉพาะเรื่องความเร็วในการตอบ) ที่สามารถทำงานลักษณะนี้ได้แล้ว
Continue reading...
Body
Google Deepmind โชว์การใช้โมเดล Gemini 2.5 Flash-Lite รุ่นเล็กตัวล่าสุดที่เพิ่งเปิดตัว เขียนโค้ด UI ของซอฟต์แวร์ โดยเป็นการสร้าง UI ขึ้นมาใหม่แบบเรียลไทม์ โดยไม่ต้องสั่งการใดๆ สิ่งที่ Gemini ทำคืออ่านหน้าจอก่อนคลิกไฟล์ แล้วสร้าง UI ของหน้าถัดไปขึ้นมาให้อัตโนมัติ ตอนที่เราคลิกไฟล์นั้นๆ
การสร้าง UI แบบ generate อัตโนมัติแบบนี้ยังมีข้อจำกัดอย่างที่แสดงในคลิป เช่น การกดไอคอนโฟลเดอร์เพื่อเข้าไปดูในโฟลเดอร์ 2 รอบจะเห็นหน้าตา UI ไม่เหมือนกัน
ถึงแม้เดโมนี้เป็นแค่การทดลองและยังไม่พร้อมสำหรับงานโปรดักชัน แต่มันก็แสดงให้เห็นความสามารถของ Gemini (โดยเฉพาะเรื่องความเร็วในการตอบ) ที่สามารถทำงานลักษณะนี้ได้แล้ว
mk Mon, 23/06/2025 - 16:38Here's how Gemini 2.5 Flash-Lite writes the code for a UI and its contents based solely on the context of what appears in the previous screen - all in the time it takes to click a button.↓ pic.twitter.com/19aq0BDyAS
— Google DeepMind (@GoogleDeepMind) June 19, 2025
Continue reading...