gadsdenriverfest.com -Google terus mengembangkan Gemini AI sebagai agen digital yang lebih mandiri. Perusahaan menargetkan kemampuan pengendalian perangkat Android melalui suara dan antarmuka visual. Langkah ini memperluas fungsi asisten AI di luar perintah teks.
Informasi ini mengemuka dalam ajang Google I/O 2025 yang digelar pada Mei 2025. Google mendemonstrasikan prototipe riset terbaru dari Project Astra. Demo tersebut menampilkan kemampuan Gemini menjalankan berbagai tugas digital.
Dalam demonstrasi berdurasi dua menit, Gemini berinteraksi langsung dengan Chrome di Android. AI tersebut menggulir dokumen PDF dan mengambil konten dari web. Sistem kemudian membuka aplikasi YouTube dan menelusuri hasil pencarian.
Baca juga:“ITSEC Asia Targetkan Penguatan Ketahanan Siber Nasional Lewat Inovasi AI pada 2026”
Apple dan Google Tempuh Strategi Berbeda Kembangkan Asisten AI
Persaingan asisten AI kian menguat seiring perubahan cara manusia berinteraksi dengan perangkat. Apple dan Google menunjukkan pendekatan berbeda dalam mengembangkan teknologi suara. Perbedaan ini mencerminkan karakter ekosistem masing-masing perusahaan.
Apple lebih dulu memaparkan visi Siri generasi terbaru. Perusahaan menargetkan asisten suara yang mampu menjalankan aksi lintas aplikasi. Pengguna dapat mengedit foto dan menyimpannya ke Notes hanya melalui perintah suara.
Apple menekankan pengalaman yang terintegrasi dan terkontrol. Namun, sistem ini menuntut integrasi khusus dari pengembang aplikasi. Pendekatan tersebut sejalan dengan ekosistem Apple yang tertutup dan terkurasi.
Para analis menilai strategi ini menjamin konsistensi pengalaman pengguna. Di sisi lain, proses integrasi dapat memperlambat adopsi fitur baru. Pengembang kecil berpotensi menghadapi hambatan teknis.
Berbeda dari Apple, Google memilih jalur yang lebih fleksibel. Gemini dirancang agar dapat bekerja tanpa integrasi khusus dari pengembang aplikasi. Pendekatan ini dianggap realistis untuk ekosistem Android yang sangat beragam.
LLM Dorong Evolusi Kendali Suara pada Perangkat Pintar
Kendali suara memasuki fase baru berkat kemajuan large language model. Teknologi ini mengatasi keterbatasan perintah suara generasi lama. Interaksi menjadi lebih alami dan kontekstual.
Sebelumnya, asisten suara hanya merespons perintah kaku. Pengguna harus menyesuaikan bahasa dengan sistem. Pendekatan tersebut sering membatasi fungsi nyata.
Dengan AI generatif, sistem kini memahami maksud pengguna. Perintah dapat disampaikan secara natural. AI mampu menyesuaikan konteks lintas aplikasi dan situs.
Keunggulan lain terletak pada fleksibilitas. Sistem dapat beroperasi pada aplikasi yang belum dikenali sebelumnya. Pendekatan ini memperluas cakupan penggunaan.
Meski potensinya besar, adopsi massal diperkirakan bertahap. Banyak pengguna masih mengandalkan interaksi layar. Kendala kebiasaan dan kepercayaan menjadi faktor utama.
Dalam waktu dekat, skenario hands free diprediksi paling umum. Demo Project Astra memperlihatkan penggunaan tanpa sentuhan. Model ini cocok untuk mobilitas tinggi.
Pengamat teknologi menilai dampaknya signifikan bagi perangkat sekunder. Smart glasses dan smartwatch menjadi penerima manfaat utama. Perangkat ini memiliki keterbatasan layar.
Alih-alih menjalankan aplikasi kompleks, perangkat sekunder bertindak sebagai antarmuka ringan. Ponsel berfungsi sebagai pusat kendali. Informasi disampaikan melalui suara atau tampilan minimal.
Baca juga:“Samsung Hadirkan Perplexity AI di Bixby 4.0 untuk Redam Dominasi Gemini”




Leave a Reply