Apple Live Text vs Google Lens: Perbandingan Mendetail

Di antara banyak fitur baru di iOS 15, beberapa mungkin terdengar seperti perubahan kecil tetapi sangat membantu dalam penggunaan sehari-hari Anda. Baik itu berbagi layar di FaceTime, iCloud+, Siri offline, dll., ada banyak fitur baru untuk dijelajahi. Salah satu fitur di iOS 15 adalah Live Text, yang Apple pamerkan di WWDC 2021. Jadi, jika Anda bertanya-tanya apakah Live Text sebagus Google Lens, berikut adalah perbandingan mendetail antara Live Text Apple vs Google Lens.

Apple Live Text vs Google Lens: Alat Pengenalan Gambar Terbaik? (2021)

Kami akan membandingkan Teks Langsung vs Google Lens di berbagai bidang dalam artikel ini. Kami akan membahas dukungan bahasa, ketersediaan offline, dan fitur lain dari Teks Langsung dan Google Lens. Seperti biasa, gunakan daftar isi di bawah untuk menavigasi di antara berbagai bagian dalam artikel ini.

Apa itu Teks Langsung di iOS 15?

Bagi siapa pun yang belum menonton konferensi pengembang Apple, izinkan saya memberi Anda gambaran singkat tentang fitur Teks Langsung baru di iOS 15.

Pada dasarnya, setelah Anda menginstal iOS 15 di iPhone, perangkat Anda akan dapat mengidentifikasi teks di dalam gambar – itu juga langsung dari kamera. Dengan begitu, Anda dapat menyalin-tempel barang dari dunia nyata, mencari bisnis yang Anda ambil fotonya, dan banyak lagi. Ini pada dasarnya Google Lens tetapi dari Apple.

Teks Langsung vs Google Lens: Apa yang Dapat Dilakukannya (Fitur Dasar)

Untuk memulai, mari kita lihat fitur dasar yang ditawarkan oleh Live Text dan Google Lens. Dengan begitu, kita bisa melihat mana dari keduanya yang membawa lebih banyak ke meja langsung dari kelelawar.

·         Teks Langsung Apple

Apple Live Text, seperti yang saya sebutkan di atas, dapat mengidentifikasi teks, nomor telepon, email , dll., dari gambar di galeri Anda, serta langsung dari aplikasi kamera. Ada juga Visual Lookup, yang dapat mengidentifikasi hewan dan bangunan terkenal , sehingga Anda bisa mendapatkan lebih banyak informasi tentang mereka dengan mengetuknya melalui jendela bidik Anda.

Setelah Anda mengidentifikasi teks dalam gambar, Anda dapat menggunakannya dalam berbagai cara. Jelas, Anda dapat menyalin-tempel teks di mana pun Anda mau, tetapi masih ada lagi yang dapat Anda lakukan. Jika Anda sudah mengidentifikasi email, Live Text akan langsung memberi Anda opsi untuk membuat email baru ke alamat tersebut. Anda akan mendapatkan opsi untuk menelepon jika teks yang teridentifikasi adalah nomor telepon, membuka alamat teridentifikasi apa pun di Apple Maps, dan banyak lagi.

Ada juga terjemahan bawaan berkat aplikasi Apple Translate. Anda dapat mengetuk tombol “Terjemahkan” di menu konteks pop-up untuk menerjemahkan teks yang teridentifikasi ke dalam bahasa Inggris (atau salah satu bahasa yang didukung).

Mungkin yang paling berguna bagi saya adalah fakta bahwa Live Text dapat memahami jika ada nomor pelacakan dalam gambar , dan memungkinkan Anda langsung membuka tautan pelacakan, yang cukup mengesankan.

·         Lensa Google

Di sisi lain, Google Lens juga dapat melakukan banyak hal yang rapi. Jelas, itu dapat mengidentifikasi teks di dalam gambar atau langsung dari aplikasi kamera Anda. Anda kemudian dapat menyalin-tempel teks yang disorot, atau, mirip dengan Teks Langsung, melakukan panggilan telepon, mengirim email , dan lainnya. Anda juga dapat membuat acara kalender baru langsung dari Google Lens, yang berguna.

Fitur lain yang rapi dari Google Lens adalah pemindaian kartu nama . Jika seseorang memberi Anda kartu namanya, Anda dapat memindainya dengan Google Lens, dan Anda akan mendapatkan opsi untuk menambahkan kontak baru dengan semua detailnya terisi secara otomatis. Itu sangat keren, dan itu adalah sesuatu yang sering kami gunakan saat menghadiri acara peluncuran dan berjejaring dengan orang-orang.

Sekarang, fitur Pencarian Visual Teks Langsung mungkin dapat mengidentifikasi bangunan terkenal, buku, hewan, dll., tetapi Google Lens berada di level lain dalam hal pengenalan objek .

Berkat keahlian Google dalam pencarian, dan pencarian gambar, Google Lens dapat memanfaatkan semua pengetahuan itu dan mengidentifikasi hampir semua objek yang Anda lihat di sekitar Anda. Baik itu tanaman, pulpen, atau tas tangan yang Anda lihat dikenakan oleh selebritas favorit Anda. Cukup pindai gambar dengan Google Lens, dan Anda akan mendapatkan hasil pencarian untuk itu. Itu adalah fitur keren dari Google Lens yang tidak dimiliki oleh Live Text/ Visual Lookup dari Apple.

Selain itu, Google Lens juga dapat membantu pekerjaan rumah Anda. Itu hal lain yang tidak bisa dilakukan Live Text. Anda dapat memindai soal matematika dengan Google Lens , dan itu akan memberi Anda solusi langkah demi langkah untuk itu. Ini juga berfungsi untuk mata pelajaran lain, termasuk fisika, biologi, sejarah, kimia, dan banyak lagi.

Jelas, Google Lens memiliki lebih banyak fitur yang ditawarkan daripada Teks Langsung Apple pada saat ini. Mudah-mudahan, Apple akan membuat Teks Langsung lebih bermanfaat dan menambahkan lebih banyak fitur ke dalam campuran seiring berjalannya waktu. Namun saat ini, Google Lens lebih kaya fitur dan menawarkan lebih banyak kemampuan daripada Teks Langsung.

Teks Langsung vs Google Lens: Integrasi

Selanjutnya, mari kita bicara tentang integrasi fitur pengenalan gambar ini ke dalam sistem operasi secara keseluruhan. Yah, Apple selalu memiliki fokus unik pada pengalaman terintegrasi, dan itu juga meluas ke Live Text.

Di iPhone Anda, menjalankan ISO 15, Teks Langsung dimasukkan ke dalam aplikasi Foto default, serta kamera . Sementara itu juga berlaku untuk Google Lens di ponsel Android, perbedaannya adalah Anda harus mengetuk untuk mengaktifkan Google Lens untuk mulai memindai teks, objek, atau apa pun yang Anda coba lakukan. Teks Langsung, di sisi lain, hampir selalu aktif. Anda cukup menekan lama pada teks yang ingin Anda salin-tempel atau nomor telepon yang ingin Anda panggil, dan Anda dapat melanjutkannya.

Terlebih lagi, Teks Langsung juga dimasukkan ke dalam iOS 15 itu sendiri . Jadi, jika Anda menggunakan aplikasi perpesanan seperti WhatsApp, atau aplikasi lain seperti Notes, atau aplikasi email di iPhone, dan ingin memindai dan menempelkan beberapa teks dari dunia nyata, Anda dapat menggunakan fitur “Teks dari Kamera ” untuk masukkan teks secara langsung. Lihat fitur ini beraksi di sini:

Fitur serupa juga ada dengan Google Lens, tetapi dalam hal ini, Anda harus terlebih dahulu beralih ke aplikasi kamera, masuk ke Google Lens, memindai teks dan menyalinnya , lalu kembali ke aplikasi asli dan menempelkannya di sana. Itu banyak langkah tambahan yang tidak perlu Anda repotkan jika Anda menggunakan Teks Langsung.

Apple biasanya sangat pandai mengintegrasikan fitur-fiturnya ke dalam perangkat yang dijualnya, dan Live Text tidak terkecuali. Ini berfungsi di mana pun Anda membutuhkannya, dan membuatnya berguna dengan cara yang Anda ingin gunakan. Saya tidak bisa mengatakan hal yang sama untuk Google Lens di Android, terutama dalam penggunaan sehari-hari.

Jelas, Teks Langsung lebih baik dalam hal ini , tetapi saya harap Google Lens segera menghadirkan integrasi serupa. Karena ketika
fitur bagus ditiru dari tempat lain, hal itu akhirnya membuat produk menjadi lebih baik untuk kami, dan saya mendukungnya.

Teks Langsung vs Google Lens: Akurasi

Sejauh menyangkut akurasi, Google Lens dan Apple Live Text sama-sama bagus. Saya telah menggunakan Google Lens secara ekstensif, dan saya telah menggunakan Teks Langsung di iPhone saya selama beberapa hari terakhir, dan saya belum melihat adanya masalah dengan keakuratan pada salah satu perangkat lunak pengenalan gambar ini.

Yang mengatakan, saya telah memperhatikan bahwa jika Anda memindai teks dengan Live Text, kadang-kadang salah “O” (huruf) untuk “0” (digit) dan sebaliknya . Itu bisa sedikit mengganggu dan bukan sesuatu yang ingin saya berikan izin, tetapi mengingat ini masih rilis beta, saya tidak akan menganggapnya sebagai masalah besar .

Di sisi lain, dalam hal pengenalan objek, Google Lens lebih unggul. Itu tidak hanya dapat mengidentifikasi lebih banyak objek dan hewan daripada Pencarian Visual pada iPhone, tetapi juga akurat dengan hasilnya. Visual Lookup benar-benar gagal mengenali objek apa pun untuk saya, dan saya bahkan memberinya gambar Jembatan Golden Gate, yang merupakan contoh persis yang digunakan Apple dalam keynote WWDC 2021-nya. Tapi itu juga tidak berhasil, jadi jelas, fitur ini membutuhkan banyak pekerjaan.

Secara keseluruhan, Google Lens memiliki akurasi yang lebih baik daripada fitur Teks Langsung Apple di iOS 15. Namun, persaingan ketat dalam hal teks, email, nomor telepon, dll.

Teks Langsung vs Google Lens: Dukungan Bahasa

Karena Google Lens dan Teks Langsung mendukung terjemahan, penting untuk mempertimbangkan bahasa apa yang digunakan keduanya. Itu juga meluas ke bahasa mana mereka bahkan dapat mengidentifikasi teks, dan yah, dalam hal metrik ini, Teks Langsung jauh di belakang Google Lensa.

Berikut adalah bahasa yang didukung oleh Teks Langsung untuk terjemahan:

  • Bahasa inggris
  • Cina
  • Perancis
  • Italia
  • Jerman
  • Portugis
  • Orang Spanyol

Di sisi lain, Google Lens mendukung terjemahan dalam setiap bahasa yang dapat digunakan Google Terjemahan. Itu lebih dari 103 bahasa untuk terjemahan teks. Berbeda dengan angka ini, dukungan tujuh bahasa Apple memudar menjadi kehampaan.

Teks Langsung vs Google Lens: Dukungan Perangkat

Fitur Teks Langsung Apple yang baru tersedia di iPhone dengan iOS 15, iPad dengan iPadOS 15, dan macOS 12 Monterey.

Google Lens tersedia untuk digunakan di semua perangkat dengan Android 6.0 Marshmallow dan yang lebih baru. Plus, ini terintegrasi ke dalam Foto Google dan aplikasi Google, artinya Anda juga dapat menggunakannya di perangkat iOS.

Tidak mengherankan jika Google Lens tersedia di lebih banyak perangkat daripada Apple Live Text . Namun, jika Anda menggunakan banyak perangkat dan menginginkan satu solusi untuk pengenalan gambar, Google Lens memiliki peluang lebih tinggi untuk tersedia di berbagai ekosistem.

Google Lens vs Teks Langsung: Yang Mana Yang Harus Anda Gunakan?

Sekarang setelah kita membahas semua poin perbandingan yang berbeda untuk Live Text dan Google Lens, pertanyaannya tetap, mana yang harus Anda gunakan? Jawaban itu akan bervariasi dari orang ke orang. Sebagai seseorang yang mendalami ekosistem Apple, saya telah menggunakan Teks Langsung lebih sering dalam seminggu terakhir daripada menggunakan Google Lens. Namun, Google Lens menawarkan kemampuan unik yang tidak dimiliki Teks Langsung dan Pencarian Visual.

Itu semua tergantung pada kasus penggunaan dan alur kerja Anda. Saya tidak sering bertanya-tanya di mana saya bisa membeli celana jeans yang dikenakan Chris Hemsworth. Tapi saya merasa ingin menambahkan teks ke percakapan WhatsApp saya tanpa menyalinnya dari Mac saya, dan Live Text memungkinkan saya melakukannya dengan lebih mudah daripada Google Lens. Jadi, apa pendapat Anda tentang Google Lens vs Live Text? Mana yang menurut Anda lebih baik dan mengapa? Beri tahu kami di komentar.