Üçüncü tarayıcı savaşı sessizce başlamış durumda. Tarihe baktığımızda, 1990'ların Netscape'i, Microsoft'un IE'si, ardından açık kaynak ruhuyla Firefox ve Google'ın Chrome'u, tarayıcı rekabeti her zaman platform kontrolü ve teknolojik paradigma değişimlerinin yoğun bir yansıması olmuştur. Chrome, güncellemeleri ve ekosistem bağlantıları sayesinde egemen konuma ulaşırken, Google arama ve tarayıcının "çift tekel" yapısı ile bilgi girişinin kapalı döngüsünü oluşturmuştur.
Ama bugün, bu yapı sarsılmaya başladı. Büyük dil modellerinin (LLM) yükselişi, giderek daha fazla kullanıcının arama sonuç sayfasında "sıfır tıklama" ile görevleri tamamlaması, geleneksel web tıklama davranışlarının azalmasına yol açıyor. Aynı zamanda, Apple'ın Safari'de varsayılan arama motorunu değiştirmeye yönelik söylentileri, Alphabet (Google'un ana şirketinin ) kâr tabanını daha da tehdit ediyor ve piyasa, "arama otoritesi" konusundaki huzursuzluğunu göstermeye başladı.
Tarayıcı kendisi de rol dönüşümü ile karşı karşıya. Artık sadece web sayfalarını gösteren bir araç değil, aynı zamanda veri girişi, kullanıcı davranışları, gizlilik kimliği gibi birçok yeteneğin bir araya geldiği bir konteyner. AI Ajansı güçlü olsa da, karmaşık sayfa etkileşimlerini tamamlamak, yerel kimlik verilerini çağırmak ve web sayfası öğelerini kontrol etmek için hâlâ tarayıcının güven sınırlarına ve işlevsel kumanda alanına ihtiyaç duyuluyor. Tarayıcı, insan arayüzünden, Ajans'ın sistem çağrı platformuna dönüşüyor.
Bu makalede, tarayıcıların hala var olma gerekliliğini tartışıyoruz. Aynı zamanda, mevcut tarayıcı pazarını gerçekten kırabilecek olanın bir başka "daha iyi Chrome" değil, yeni bir etkileşim yapısı olduğunu düşünüyoruz: bilgi sunumu değil, görev çağrısı. Gelecekteki tarayıcılar, AI Agent'lar için tasarlanmalı - yalnızca okuyabilen değil, aynı zamanda yazabilen ve uygulayabilen. Browser Use gibi projeler, sayfa yapısını anlamsal hale getirmeyi, görsel arayüzü LLM tarafından çağrılabilen yapılandırılmış metne dönüştürmeyi ve sayfadan komutlara haritalamayı deniyor, etkileşim maliyetlerini büyük ölçüde azaltıyor.
Piyasa üzerindeki ana akım projeler deneme sürecine girmiştir: Perplexity, geleneksel arama sonuçlarının yerini almak için AI kullanan yerel tarayıcı Comet'i inşa etmektedir; Brave, gizlilik koruma ve yerel akıl yürütmeyi birleştirerek, arama ve engelleme işlevlerini LLM ile güçlendirmektedir; Donut gibi Crypto yerel projeleri ise AI ile blokzincir varlıkları arasındaki etkileşim için yeni bir giriş noktasına odaklanmaktadır. Bu projelerin ortak özelliği, tarayıcının çıktı katmanını güzelleştirmek yerine, giriş kısmını yeniden yapılandırmaya çalışmalarıdır.
Girişimciler için fırsatlar, girdi, yapı ve aracı arasındaki üçgen ilişkide gizlidir. Tarayıcı, gelecekteki Agent'ın dünyayı çağırdığı bir arayüz olarak, kimlerin yapılandırılabilir, çağrılabilir ve güvenilir "yetki blokları" sunabileceğini belirler; bu kişiler yeni nesil platformların bir parçası olabilecektir. SEO'dan AEO'ya (Agent Engine Optimization), sayfa trafiğinden görev zinciri çağrısına kadar, ürün biçimi ve tasarım düşüncesi yeniden şekilleniyor. Üçüncü tarayıcı savaşı, "girdi" üzerinde gerçekleşiyor, "gösterim" değil; galip gelen artık kullanıcıların dikkatini çeken değil, Agent'ın güvenini kazanan ve çağrı girişini elde eden olacaktır.
Tarayıcıların Gelişim Tarihi
1990'ların başında, internet henüz günlük yaşamın bir parçası haline gelmediğinde, Netscape Navigator ortaya çıktı ve yeni bir kıtanın keşfi gibi, milyonlarca kullanıcıya dijital dünyaya giden kapıyı açtı. Bu tarayıcı ilk değildi, ancak gerçekten halkın kullanımına sunulan ve internet deneyimini şekillendiren ilk üründü. O dönemde, insanlar grafik arayüz aracılığıyla web sitelerini bu kadar kolay bir şekilde gezebiliyorlardı, sanki tüm dünya aniden ulaşılabilir hale gelmişti.
Ancak, parlaklık genellikle kısa ömürlüdür. Microsoft, tarayıcının önemini hızla fark etti ve Internet Explorer'ı Windows işletim sistemine zorla entegre edip varsayılan tarayıcı olarak belirlemeye karar verdi. Bu strateji, "platform öldürücü hamle" olarak nitelendirilebilir ve doğrudan Netscape'in pazar hakimiyetini çökertti. Birçok kullanıcı, IE'yi aktif olarak seçmemişti, aksine sistem varsayılan olarak kabul ettiği için bunu kullanmak zorunda kaldı. IE, Windows'un dağıtım gücü sayesinde hızla sektörün egemeni haline geldi, Netscape ise çöküş yoluna girdi.
Zorluklar içinde, Netscape'in mühendisleri radikal ve idealist bir yol seçtiler — tarayıcı kaynak kodunu kamuya açarak açık kaynak topluluğuna bir çağrı yaptılar. Bu karar, sanki teknoloji dünyasında bir "Makedonya tarzı feragat" gibiydi, eski çağın sonunu ve yeni güçlerin yükselişini müjdeledi. Bu kod daha sonra Mozilla tarayıcı projesinin temeli haline geldi, başlangıçta Phoenix (anlamı: anka kuşunun yeniden doğuşu) olarak adlandırıldı, ancak marka sorunları nedeniyle birkaç kez ismi değiştirildi ve nihayetinde Firefox olarak adlandırıldı.
Firefox, sadece Netscape'in basit bir kopyası değildir; kullanıcı deneyimi, eklenti ekosistemi, güvenlik gibi alanlarda birçok yenilik gerçekleştirmiştir. Doğuşu, açık kaynak ruhunun zaferini simgelerken, tüm sektöre yeni bir canlılık katmıştır. Bazıları Firefox'u Netscape'in "ruhsal varisi" olarak tanımlıyor, tıpkı Osmanlı İmparatorluğu'nun Bizans'ın son ışığını miras alması gibi. Bu benzetme abartılı olsa da oldukça anlamlıdır.
Ancak Firefox'un resmi olarak piyasaya sürülmesinden yıllar önce, Microsoft zaten IE'nin altı sürümünü yayınlamıştı. Zaman avantajı ve sistem paketleme stratejisi sayesinde, Firefox başlangıçta takip pozisyonunda yer aldı ve bu yarışın başlangıç noktasında eşit bir rekabet olmadığını gösterdi.
Bu arada, başka bir erken oyuncu da sessizce sahneye çıkıyor. 1994 yılında, Norveç'ten gelen Opera tarayıcısı ortaya çıktı; başlangıçta sadece deneysel bir projeydi. Ancak 2003 yılındaki 7.0 sürümü ile, kendi geliştirdiği Presto motorunu tanıttı ve CSS, duyarlı tasarım, sesli kontrol ve Unicode kodlaması gibi öncü teknolojileri ilk destekleyen oldu. Kullanıcı sayısı sınırlı olmasına rağmen, teknoloji açısından her zaman sektörün önünde yer aldı ve "geeklerin favorisi" haline geldi.
Aynı yıl, Apple Safari tarayıcısını piyasaya sürdü. Bu, anlamlı bir dönüm noktasıydı. O dönemde, Microsoft iflasın eşiğindeki Apple'a rekabet görüntüsünü korumak ve anti-tröst incelemesini önlemek için 150 milyon dolar yatırım yapmıştı. Safari'nin doğuşundan itibaren varsayılan arama motoru Google olsa da, bu Microsoft ile olan tarihsel bağ, internet devleri arasındaki karmaşık ve ince ilişkiyi sembolize ediyor: İşbirliği ve rekabet, her zaman birbirlerinin gölgesi gibi.
2007 yılında, IE7 Windows Vista ile birlikte piyasaya sürüldü, ancak piyasa geri bildirimi vasattı. Firefox ise, daha hızlı güncelleme temposu, daha kullanıcı dostu eklenti mekanizması ve geliştiricilere doğal çekiciliği sayesinde pazar payını istikrarlı bir şekilde yaklaşık %20'ye yükseltti. IE'nin egemenliği giderek zayıfladı, rüzgar değişmeye başladı.
Google ise başka bir strateji izledi. 2001 yılından itibaren kendi tarayıcısını geliştirmek için çalışmalara başladı, ancak bu projeyi onaylatmak için CEO Eric Schmidt'i ikna etmesi altı yıl sürdü. Chrome, 2008 yılında piyasaya sürüldü ve Chromium açık kaynak projesi ile Safari'nin kullandığı WebKit motoruna dayanmaktadır. "Şişkin" bir tarayıcı olarak adlandırılsa da, Google'ın reklamcılık ve marka oluşturma konusundaki derin yetenekleri sayesinde hızla yükseldi.
Chrome'un ana silahı işlevsellik değil, sık sık yapılan sürüm güncellemeleri (her altı haftada bir) ve tüm platformlarda birleşik deneyimdir. Kasım 2011'de, Chrome ilk kez Firefox'u geçerek pazar payını %27'ye ulaştı; altı ay sonra, IE'yi tekrar geçerek, bir rakipten egemen bir konuma geçişini tamamladı.
Bu arada, Çin'in mobil interneti de kendi ekosistemini oluşturmaya başladı. Alibaba'nın UC Browser'ı 2010'lu yılların başında hızla popülerlik kazandı, özellikle Hindistan, Endonezya ve Çin gibi gelişen pazarlarda, hafif tasarımı, veri sıkıştırma özellikleri ile veri tasarrufu gibi özellikleri sayesinde düşük bütçeli cihaz kullanıcılarının beğenisini kazandı. 2015 yılında, dünya genelinde mobil tarayıcı pazar payı %17'yi aştı, Hindistan'da bir dönem %46'ya kadar yükseldi. Ancak bu zafer kalıcı olmadı. Hindistan hükümetinin Çin uygulamalarına yönelik güvenlik denetimlerini artırmasıyla UC Browser, önemli bir pazardan çekilmek zorunda kaldı ve zamanla eski ihtişamını kaybetti.
2020'li yıllara girerken, Chrome'un liderliği zaten kurulmuş durumda ve küresel pazar payı yaklaşık %65 seviyesinde istikrara kavuşmuştur. Dikkate değer bir nokta, Google arama motoru ile Chrome tarayıcısının her ne kadar Alphabet'e ait olsa da, pazar bakımından iki bağımsız hegemonya sistemi olduğudur - ilki, dünya genelinde yaklaşık %90'lık bir arama girişini kontrol ederken, ikincisi ise çoğu kullanıcının internete girdiği "ilk pencereyi" elinde tutmaktadır.
Bu çift tekel yapısını korumak için Google, büyük paralar harcamaktan çekinmiyor. 2022 yılında, Alphabet, Google'ın Safari'deki varsayılan arama motoru olarak kalmasını sağlamak için Apple'a yaklaşık 20 milyar dolar ödedi. Bazı analizler, bu harcamanın Google'ın Safari trafiğinden elde ettiği arama reklamı gelirinin %36'sına denk geldiğini belirtiyor. Başka bir deyişle, Google, surlarını korumak için "koruma ücreti" ödüyor.
Ama rüzgar bir kez daha değişti. Büyük dil modellerinin (LLM) yükselişi ile birlikte, geleneksel arama sarsılmaya başladı. 2024 yılında Google'ın arama pazarındaki payı %93'ten %89'a düştü; hala hakim olsa da, çatlaklar ortaya çıkmaya başladı. Daha yıkıcı olanı ise, Apple'ın kendi AI arama motorunu piyasaya süreceğine dair söylentiler - eğer Safari varsayılan arama motorunu kendi ekosistemine geçirirse, bu yalnızca ekosistem yapısını değiştirmekle kalmayacak, aynı zamanda Alphabet'in kâr temellerini de sarsabilir. Pazar hızlı bir şekilde tepki verdi, Alphabet'in hisse fiyatı 170 dolardan 140 dolara düştü; bu sadece yatırımcıların panikini yansıtmıyor, aynı zamanda arama çağının geleceği konusunda derin bir huzursuzluğu da gösteriyor.
Navigator'dan Chrome'a, açık kaynak ideallerinden reklam ticarileşmesine, hafif tarayıcıdan AI arama asistanına, tarayıcı rekabeti her zaman teknoloji, platform, içerik ve kontrol savaşı olmuştur. Savaş alanı sürekli değişiyor, ancak öz hiç değişmedi: Kim girişe sahip olursa, geleceği tanımlar.
VC gözünde, LLM ve AI çağında insanların arama motorlarına olan yeni taleplerine dayanarak, üçüncü tarayıcı savaşları yavaş yavaş başlıyor. Aşağıda, bazı tanınmış AI tarayıcı projelerinin finansman durumları yer almaktadır.
Eski mimarisi modern tarayıcıların
Tarayıcı mimarisinden bahsederken, klasik geleneksel mimari aşağıdaki gibi gösterilmektedir:
İstemci — Ön Uç Girişi
HTTPS üzerinden en son Google Front End'e ulaşarak TLS şifre çözme, QoS örnekleme ve coğrafi yönlendirme gerçekleştirin. Anormal trafik (DDoS, otomatik tarama) tespit edilirse, bu katmanda hız sınırlaması veya zorluk çıkarabilirsiniz.
Sorgu Anlayışı
Ön yüz, kullanıcı tarafından girilen kelimelerin anlamını anlamalıdır, üç adım vardır: sinirsel yazım düzeltme, "recpie" kelimesini "recipe" olarak düzeltmek; eşanlamlı kelime genişletme, "how to fix bike" ifadesini "repair bicycle" olarak genişletmek. Niyet analizi, sorgunun bilgi, yönlendirme veya işlem niyeti olup olmadığını belirlemeli ve Dikey isteği dağıtmalıdır.
Aday Geri Çağırma
Google'un kullandığı sorgulama teknolojisi şunları ifade eder: ters indeks. Doğru sıralı indekslerde, bir ID verildiğinde dosyaya erişim sağlanır. Ancak kullanıcı, istenen içeriğin on milyarlarca dosya içindeki numarasını bilemeyeceğinden, oldukça geleneksel bir yöntem olan ters indeksi kullanarak hangi dosyaların ilgili anahtar kelimeleri içerdiğini arar. Sonrasında, Google, anlam araması için vektör indeksini kullanır; yani sorgunun anlamına benzer içerikleri bulur. Metin, resim gibi içerikleri yüksek boyutlu vektörlere (embedding) dönüştürür ve bu vektörler arasındaki benzerliğe göre arama yapar. Örneğin, kullanıcı "pizza hamuru nasıl yapılır" diye arasa bile, arama motoru "pizza hamuru yapım kılavuzu" ile ilgili sonuçları döndürebilir, çünkü bunlar anlam olarak benzerlik gösterir. Ters indeks ve vektör indeksleme sürecinden sonra yaklaşık yüz bin sayfa ön elemeden geçirilir.
Çok seviyeli sıralama
Sistemler genellikle BM25, TF-IDF, sayfa kalitesi puanı gibi binlerce hafif özellik aracılığıyla, yüz binlerce aday sayfayı yaklaşık 1000'e indirgeyerek ilk aday kümesini oluşturur. Bu tür sistemler genel olarak öneri motorları olarak adlandırılır. Kullanıcı davranışları, sayfa özellikleri, sorgu niyeti ve bağlam sinyalleri gibi çok çeşitli varlıklar tarafından üretilen büyük miktarda özelliklere dayanır. Örneğin, Google kullanıcı geçmişini, diğer kullanıcıların davranış geri bildirimlerini, sayfa anlamsını, sorgu anlamını ve daha fazlasını bir araya getirirken, aynı zamanda zaman (günün saat dilimi, haftanın belirli günleri) ve güncel haberler gibi bağlamsal unsurları da dikkate alır.
Derin öğrenme ana sıralama yapma
İlk aşamada, Google, RankBrain ve Neural Matching gibi teknolojileri kullanarak sorguların anlamını anlamaya ve büyük belgeler arasından ilk ilgili sonuçları seçmeye çalışmaktadır. RankBrain, Google tarafından 2015 yılında kullanıcı sorgularının anlamını daha iyi anlamak amacıyla tanıtılan bir makine öğrenimi sistemidir, özellikle de ilk kez ortaya çıkan sorgular için. Sorguları ve belgeleri vektör temsiline dönüştürerek, aralarındaki benzerliği hesaplar ve en ilgili sonuçları bulur. Örneğin, "pizza hamuru nasıl yapılır" sorgusu için, belgede tam eşleşen anahtar kelimeler olmasa bile, RankBrain "pizza tabanı" veya "hamur yapımı" ile ilgili olan içeriği tanıyabilir.
Neural Matching, 2018'de Google tarafından piyasaya sürülen bir başka teknolojidir ve sorgular ile belgeler arasındaki anlamsal ilişkileri daha derinlemesine anlamayı amaçlamaktadır. Bu teknoloji, kelimeler arasındaki belirsiz ilişkileri yakalamak için sinir ağı modelleri kullanarak Google'ın sorgular ile web içeriğini daha iyi eşleştirmesine yardımcı olur. Örneğin, "neden dizüstü bilgisayarımın fanı çok gürültülü" sorgusu için Neural Matching, kullanıcının aşırı ısınma, toz birikimi veya yüksek CPU kullanımı hakkında sorun giderme bilgileri aradığını anlamasını sağlar; bu kelimeler sorguda doğrudan yer almasa bile.
Derin Yeniden Sıralama: BERT Modelinin Uygulaması
İlgili belgeler ilk olarak filtrelendikten sonra, Google bu belgeleri daha ince bir sıralama yapmak için BERT (Bidirectional Encoder Representations from Transformers) modelini kullanmaktadır, böylece en alakalı sonuçlar en önde yer alır. BERT, cümle içindeki kelimelerin bağlam ilişkilerini anlayabilen, Transformer tabanlı bir önceden eğitilmiş dil modelidir. Aramada, BERT, ilk olarak elde edilen belgeleri yeniden sıralamak için kullanılır. Sorgu ve belgeleri ortak bir şekilde kodlayarak, aralarındaki ilişki puanlarını hesaplar ve böylece belgeleri yeniden sıralar. Örneğin, "kenarsız yokuşta park etme" sorgusu için, BERT "kenarsız" ifadesinin anlamını anlayabilir ve sürücülere tekerleklerini yol kenarına doğru çevirmelerini öneren sayfaları döndürebilir, aksi takdirde bunu kenarı olan bir durum olarak yanlış anlayabilir. SEO mühendisleri için ise, Google sıralama ve makine öğrenimi öneri algoritmalarını doğru bir şekilde öğrenmek, web sayfası içeriğini hedefli bir şekilde optimize etmek ve daha yüksek sıralama gösterimi elde etmek için gereklidir.
Yukarıda tipik bir Google arama motorunun çalışma süreci verilmiştir. Ancak günümüzde AI ve büyük veri patlaması döneminde, kullanıcıların tarayıcı ile etkileşimleri için yeni talepler ortaya çıkmıştır.
Neden AI tarayıcıları yeniden şekillendiriyor?
Öncelikle, tarayıcı biçiminin neden hâlâ var olduğunu netleştirmemiz gerekiyor. Yapay zeka ajanları ve tarayıcılardan başka bir üçüncü biçim var mı?
Varoluşun, yerini alması mümkün değildir. Yapay zekanın tarayıcıyı kullanabilmesi, ancak tarayıcıyı tamamen ikame edememesi nedenidir? Çünkü tarayıcı, yalnızca veri okuma girişi değil, aynı zamanda veri girişi için genel bir platformdur. Bu dünyada yalnızca bilgi girişi olamaz, aynı zamanda veri üretmek ve web siteleriyle etkileşimde bulunmak da gereklidir, bu nedenle kişiselleştirilmiş kullanıcı bilgilerini entegre eden tarayıcılar hala yaygın olarak var olacaktır.
Bu noktayı yakalıyoruz: Tarayıcı genel bir giriş noktası olarak, yalnızca veri okumak için değil, kullanıcıların verilerle etkileşimde bulunmaları gerektiği için de kullanılır. Tarayıcı, kullanıcı parmak izlerini depolamak için mükemmel bir yerdir. Daha karmaşık kullanıcı davranışları ve otomatik davranışlar, tarayıcı aracılığıyla gerçekleştirilmelidir. Tarayıcı, kullanıcıların tüm davranış parmak izlerini, geçiş belgelerini ve diğer gizli bilgilerini depolayabilir ve otomasyon sürecinde güvene ihtiyaç duymadan çağırma gerçekleştirebilir. Verilerle etkileşimde bulunma eylemi ise şuna dönüşebilir:
Kullanıcı → AI Agent'ı çağır → Tarayıcı.
Yani, tek muhtemel değiştirilebilecek kısım, dünya evrimi trendleriyle uyumlu olan yönlerdir - daha akıllı, daha kişiselleştirilmiş ve daha otomatik. Elbette, bu kısım AI Agent'a devredilebilir, ancak AI Agent'ın kendisi kullanıcıya özel içerik barındırmak için uygun bir yer değildir, çünkü veri güvenliği ve kullanım kolaylığı açısından birden fazla zorlukla karşı karşıyadır. Özellikle:
Çoğu büyük model bulutta barındırılmakta, oturum bağlamı sunucu tarafından saklanmaktadır, bu nedenle yerel şifre, cüzdan, Çerez gibi hassas verilere doğrudan erişim sağlanması zordur.
Tüm tarayıcı ve ödeme verilerini üçüncü taraf modellere göndermek için kullanıcı izni yeniden alınmalıdır; Avrupa Birliği'nin "DMA"sı ve Amerika Birleşik Devletleri eyalet düzeyindeki gizlilik yasaları, veri dışa aktarımında minimum veri gereksinimi talep etmektedir.
İki faktörlü doğrulama kodunu otomatik doldurma, kamera çağırma veya GPU kullanarak WebGPU çıkarımı, tarayıcı kumanda alanında tamamlanmalıdır.
Verilerin bağlamı, sekmeler, çerezler, IndexedDB, Service Worker Cache, Passkey kimlik bilgileri ve uzantı verileri dahil olmak üzere tarayıcıya yüksek derecede bağımlıdır ve tarayıcıda birikmiştir.
etkileşim biçiminde derin bir dönüşüm
Başlangıçtaki konuya dönecek olursak, tarayıcı davranışlarımız genel olarak üç forma ayrılabilir: veri okuma, veri girişi, etkileşimli veri. Yapay zeka büyük modelleri (LLM), veri okuma verimliliğimizi ve yöntemimizi derinden değiştirdi; geçmişte kullanıcıların anahtar kelimelere dayalı olarak web sayfalarını arama davranışı oldukça eski ve verimsiz görünüyordu.
Kullanıcı arama davranışının evrimi - - özet cevaplar almak mı yoksa web sayfalarına tıklamak mı olduğu üzerine birçok araştırma yapılmıştır.
Kullanıcı davranışları açısından, 2024 yılı araştırmaları, Amerika'da her 1.000 Google sorgusundan yalnızca 374'ünün açık web sayfasına tıkladığını göstermektedir. Diğer bir deyişle, yaklaşık %63 'sü "sıfır tıklama" davranışına aittir. Kullanıcılar hava durumu, döviz kurları, bilgi kartları gibi bilgileri doğrudan arama sonuçları sayfasından almaya alışkındır.
Kullanıcıların psikolojik açıdan, 2023 yılına ait bir anket, katılımcıların %44'ünün standart doğal sonuçları, öne çıkan özetlerden (featured snippet) daha güvenilir bulduğunu ortaya koymuştur. Akademik araştırmalar da, tartışmalı veya ortak bir gerçeğin olmadığı konularda kullanıcıların çoklu kaynak bağlantılarını içeren sonuç sayfalarını tercih ettiklerini bulmuştur.
Yani, gerçekten de bazı kullanıcılar AI özetlerine güvenmeyebilir, ancak oldukça fazla sayıda kullanıcı davranışı "sıfır tıklama" yönüne doğru kaymıştır. Bu nedenle, AI tarayıcısının uygun bir etkileşim biçimini keşfetmesi gerekiyor - özellikle veri okuma kısmında, çünkü mevcut büyük modellerin "halüsinasyon problemi" henüz ortadan kaldırılmamıştır ve birçok kullanıcı otomatik olarak oluşturulan içerik özetlerine tamamen güvenmekte zorluk çekmektedir. Bu alanda, büyük modeli tarayıcıya entegre etmek, aslında tarayıcıda devrim niteliğinde bir değişiklik gerektirmiyor, sadece modelin doğruluğu ve kontrol edilebilirliğini kademeli olarak çözmek yeterli; bu iyileştirme de sürekli olarak ilerlemektedir.
Ve gerçekten tarayıcıda büyük bir değişimi tetikleyebilecek olan, veri etkileşimi katmanıdır. Geçmişte insanlar etkileşimlerini anahtar kelimeleri girerek tamamladılar - bu, tarayıcının anlayabileceği sınırdır. Ancak şimdi, kullanıcılar giderek daha fazla karmaşık görevleri tanımlamak için bir bütün halinde doğal dil kullanmaya eğilimli, örneğin:
"New York'tan Los Angeles'a belirli bir zaman diliminde direkt uçak bileti arama"
"New York'tan Şanghay'a, ardından Los Angeles'a uçak bileti arayın"
Bu eylemler, insanlar için bile birçok web sitesine erişmek, verileri toplamak ve karşılaştırmak için büyük miktarda zaman harcamayı gerektiriyor. Ancak bu Agentic Tasks (temsilci görevler) giderek AI Agent'lar tarafından devralınıyor.
Bu aynı zamanda tarihsel evrimin yönüyle de uyumludur: otomasyon ve akıllılaşma. İnsanlar ellerini serbest bırakmayı arzuluyor, AI Agent kesinlikle tarayıcıya derinlemesine entegre edilecektir. Geleceğin tarayıcıları tamamen otomasyona uygun olarak tasarlanmalıdır, özellikle de şunları dikkate almalıdır:
İnsan okuma deneyimi ile AI Ajansı'nın anlaşılırlığını nasıl dengeleyebiliriz,
Kullanıcıya ve ajan modeline aynı sayfada nasıl hizmet edilir.
Sadece bu iki tasarımın karşılandığı durumlarda, tarayıcı gerçekten AI Agent'ın görevleri yerine getirmesi için istikrarlı bir araç haline gelebilir.
Sonrasında, Browser Use, Arc (The Browser Company), Perplexity, Brave ve Donut dahil olmak üzere beş dikkat çekici projeye odaklanacağız. Bu projeler, AI tarayıcılarının gelecekteki evrim yönlerini ve Web3 ile Kripto ortamlarındaki yerel birleşim potansiyelini temsil ediyor.
Tarayıcı Kullanımı
Bu, Perplexity ve Browser Use'un büyük finansman elde etmesinin arkasındaki temel mantıktır. Özellikle Browser Use, 2025 yılının ilk yarısında ortaya çıkan ikinci en belirgin ve büyüme potansiyeline sahip yenilik fırsatıdır.
Tarayıcı, gerçek anlamda bir anlam katmanı oluşturmuştur ve bunun merkezi, bir sonraki nesil tarayıcılar için anlam tanıma mimarisi inşa etmektir.
Tarayıcı Kullanımı, geleneksel "DOM=insanlara görünen düğüm ağacı"nı "anlamsal DOM=LLM'ye görünen talimat ağacı" olarak yeniden kodlayarak, aracının "izleme noktasının koordinatını" bilmeden hassas bir şekilde tıklamasını, doldurmasını ve yüklemesini sağlar; bu yol "yapılandırılmış metin → fonksiyon çağrısı" ile görsel OCR veya koordinat Selenium'un yerini alır, bu nedenle yürütme daha hızlı, token daha ekonomik ve hata oranı daha azdır. TechCrunch, bunu "AI'nın gerçekten web sayfalarını anlamasını sağlayan yapıştırıcı katman" olarak adlandırdı ve Mart ayında tamamlanan 17 milyon dolarlık tohum turu, bu temel yeniliğe yatırım yapmaktadır.
HTML render edildikten sonra standart DOM ağacı oluşturur; tarayıcı daha sonra ekran okuyucularına daha zengin "roller" ve "durum" etiketleri sağlamak için bir erişilebilirlik ağacı türetir.
Her etkileşimli öğeyi (örneğin, vb.) JSON parçacığı olarak soyutlayın ve rol, görünürlük, koordinatlar, gerçekleştirilebilir eylemler gibi meta veriler ekleyin;
Tüm sayfayı düzleştirilmiş "anlam düğümü listesi" olarak tercüme et, böylece LLM sistem isteminde bir kerede okuyabilir;
LLM çıktısı olan yüksek seviyeli komutları al (örneğin click(node_id=「btn-Checkout」)) ve gerçek tarayıcıya geri oynat. Resmi blog bu süreci "web sitesi arayüzünü LLM tarafından çözülebilir yapılandırılmış metne dönüştürmek" olarak adlandırıyor.
Aynı zamanda, bu standart W3C'ye getirildiğinde, tarayıcı girişi sorunlarını büyük ölçüde çözebilir. The Browser Company'nin açık mektubunu ve örneğini kullanarak, The Browser Company'nin fikirlerinin neden yanlış olduğunu daha fazla açıklayalım.
ARC
The Browser Company (Arc ana şirketi ), kamuya açık mektubunda, ARC tarayıcısının normal bakım aşamasına geçeceğini ve ekibin odak noktasının tamamen AI odaklı tarayıcı DIA üzerinde olacağını belirtti. Mektupta, DIA'nın kesin uygulama yolunun henüz belirlenmediği de dile getirildi. Aynı zamanda, ekip mektupta gelecekteki tarayıcı pazarına dair birkaç tahmin sundu. Bu tahminlere dayanarak, mevcut tarayıcı yapısını gerçekten sarsmak için, etkileşim tarafındaki çıktılarda değişiklik yapılmasının kritik olduğunu düşünüyoruz.
Aşağıda ARC ekibinin gelecekteki tarayıcı pazarıyla ilgili yaptığı üç tahmin yer almaktadır.
Öncelikle, Web sayfalarının artık ana etkileşim arayüzü haline gelmeyeceğini düşünüyor. Bu, tartışmasız, zorlu bir yargıdır ve bu nedenle kurucusunun düşüncelerine karşı temkinli bir yaklaşım sergiliyoruz. Bizim açımızdan, bu görüş tarayıcının rolünü önemli ölçüde küçümsüyor ve AI tarayıcı yolunu keşfederken göz ardı edilen kritik bir sorundur.
Büyük modeller niyet yakalama konusunda mükemmel performans sergiliyor, örneğin "bana uçak bileti ayırt" gibi talimatları anlamak. Ancak, bilgi yoğunluğu taşıma kapasitesinde hala yetersizler. Kullanıcılar bir gösterge paneli, Bloomberg terminal tarzı bir not defteri veya Figma benzeri bir görselleştirme tuvali istediklerinde, piksel düzeyinde hassasiyetle düzenlenmiş özel web sayfalarından daha avantajlı bir şey yoktur. Her ürün, ergonomik tasarımlarıyla - grafikler, sürükle bırak özellikleri, kısayol tuşları - süsleyici bir artı değil, bilişsel erişilebilirliği sıkıştıran unsurlardır. Bu yetenekler basit diyalog tabanlı etkileşimle taşınamaz. Örneğin Gate.com'da, eğer kullanıcı yatırım işlemleri yapmak istiyorsa, sadece AI ile konuşmaya güvenmek yetersiz kalır çünkü kullanıcı bilgi girişi, hassasiyet ve yapılandırılmış sunuma yüksek derecede bağımlıdır.
RC ekibinin yol haritasında bir öznel sapma bulunmaktadır; bu da "etkileşimin" giriş ve çıkış olmak üzere iki boyuttan oluştuğunu net bir şekilde ayırt edememeleridir. Giriş tarafında, belirli senaryolar altında görüşleri bir miktar mantıklı olabilir; AI gerçekten de talimat tabanlı etkileşimin verimliliğini artırabilir; ancak çıkış tarafında bu değerlendirme belirgin bir dengesizlik gösteriyor ve tarayıcının bilgi sunumu ve kişiselleştirilmiş deneyimlerdeki merkezi rolünü göz ardı ediyor. Örneğin, Reddit'in kendine özgü bir düzeni ve bilgi mimarisi vardır, AAVE ise tamamen farklı bir arayüze ve yapıya sahiptir. Tarayıcı, hem yüksek düzeyde gizli verileri barındıran hem de çeşitli ürün arayüzlerini genel olarak işleyebilen bir platform olarak, giriş katmanında alternatif olma kapasitesi sınırlıdır; çıkış tarafında ise karmaşıklığı ve standartlaştırılamayan özellikleri onu devrim niteliğinde bir değişime karşı daha da zor hale getirir. Buna karşılık, mevcut pazardaki AI tarayıcılar daha çok "çıktı özeti" katmanına odaklanmaktadır: web sayfalarını özetlemek, bilgileri çıkarmak, sonuçlar üretmek; bu durum, Google gibi ana akım tarayıcılar veya arama sistemleri için köklü bir meydan okuma oluşturmak için yeterli değildir ve sadece arama özetinin pazar payını paylaşmaktadır.
Bu nedenle, pazar payı %66'ya kadar olan Chrome'u gerçekten sarsabilecek olan, "bir sonraki Chrome" olmayacaktır. Bu devrimi gerçekleştirmek için, tarayıcının render modunun köklü bir şekilde yeniden şekillendirilmesi gerekmektedir; bu, akıllı çağın AI Agent liderliğindeki etkileşim ihtiyaçlarına uyum sağlamalı, özellikle de giriş tarafındaki mimari tasarımda. Bu nedenle, Browser Use'un benimsediği teknik yolu daha fazla takdir ediyoruz - odak noktası tarayıcı alt yapısının yapısal reformudur. Herhangi bir sistem "atomik" veya "modüler" hale geldiğinde, bu durumun getirdiği programlanabilirlik ve kombinasyon yetenekleri son derece yıkıcı bir devrim potansiyeli taşır ve bu tam olarak Browser Use'un şu anda izlediği yön.
Özetle, AI Agent'in çalışması hala tarayıcının varlığına yüksek derecede bağımlıdır. Tarayıcı, karmaşık kişiselleştirilmiş verilerin ana depolama yeri olmanın yanı sıra, çeşitli uygulamaların evrensel render arayüzü olarak da işlev görmektedir, bu nedenle gelecekte de temel etkileşim girişi olarak kalmaya devam edecektir. AI Agent'in tarayıcıya derinlemesine entegre edilmesiyle birlikte belirli görevleri tamamlamak için, kullanıcı verilerini çağırarak özel uygulamalarla etkileşimde bulunacaktır, yani esasen girdi tarafında hareket edecektir. Bunun için, tarayıcının mevcut render modunun yenilikçi hale getirilmesi gerekecektir, böylece AI Agent ile maksimum uyumluluk ve adaptasyon sağlanarak uygulamaların daha etkili bir şekilde yakalanması mümkün olacaktır.
Perplexity
Perplexity, öneri sistemi ile tanınan bir AI arama motorudur ve en son değeri 14 milyar dolar, 2024 Haziran'ındaki 3 milyar dolara kıyasla neredeyse 5 kat artmıştır. Aylık ortalama 400 milyondan fazla arama sorgusu işlenmektedir; 2024 Eylül ayında yaklaşık 250 milyon sorgu işlenmiştir. Kullanıcı sorgu sayısı yıllık bazda 8 kat artmış, aylık aktif kullanıcı sayısı 30 milyonu geçmiştir.
Ana özellikleri, sayfaları gerçek zamanlı olarak özetleyebilme yeteneğidir ve anlık bilgi edinme konusunda avantaj sağlamaktadır. Bu yılın başlarında, kendi yerel tarayıcısı Comet'i inşa etmeye başladı. Perplexity, yakında piyasaya sürülecek olan Comet'i sadece web sayfalarını "gösteren" değil, aynı zamanda web sayfalarını "düşünen" bir tarayıcı olarak tanımlıyor. Resmi olarak, tarayıcının içinde Perplexity'nin yanıt motorunun derinlemesine yerleştirileceği belirtiliyor; bu, Steve Jobs'un "tüm makine" düşüncesini yansıtıyor: AI görevlerini tarayıcının derinliklerine gömmek, yan menü eklentileri yapmak yerine. Alıntılarla birlikte sade yanıtlar, geleneksel "on mavi bağlantıyı" değiştirecek ve doğrudan Chrome ile rekabet edecek.
Ancak hala iki temel sorunu çözmesi gerekiyor: yüksek arama maliyetleri ve marjinal kullanıcıların düşük kâr marjı. Perplexity, AI arama alanında öncü bir konumda olmasına rağmen, Google da 2025 I/O konferansında ana ürününü büyük ölçüde akıllı hale getireceğini duyurdu. Tarayıcı için yapılan yeniden yapılandırma ile Google, Overview, Deep Research ve gelecekteki Agentic özelliklerini entegre eden AI Model adında yeni bir tarayıcı sekmesi deneyimi sundu; genel projeye «Project Mariner» deniyor.
Google, AI'yi yeniden şekillendirmek için aktif bir şekilde çalışıyor, bu nedenle yalnızca yüzeysel işlev taklitleri, örneğin Overview, DeepResearch veya Agentics, gerçekten bir tehdit oluşturmakta zorlanıyor. Kaos içinde yeni bir düzen kurma potansiyeline sahip olan, tarayıcı mimarisini temelden yeniden yapılandırmak, büyük dil modellerini (LLM) tarayıcı çekirdeğine derinlemesine entegre etmek ve etkileşim yöntemlerinde köklü değişiklikler gerçekleştirmek olacaktır.
Brave
Brave, Crypto sektöründeki en erken ve en başarılı tarayıcıdır, Chromium mimarisine dayanır ve bu nedenle Google Store'daki eklentilerle uyumludur. Kullanıcıları çekmek için gizlilik ve tarama ile Token kazanma modeline dayanır. Brave'in gelişim yolu, bir ölçüde büyüme potansiyelini sergilemektedir. Ancak ürün açısından bakıldığında, gizlilik elbette önemlidir, ancak talebi hala belirli bir kullanıcı grubuna odaklanmaktadır; geniş kitleler için gizlilik bilinci henüz ana akım karar verme faktörü haline gelmemiştir. Bu nedenle, mevcut devleri bu özellik ile alt etme olasılığı düşüktür.
Şu ana kadar, Brave'in aylık aktif kullanıcı sayısı 82,7 milyona, günlük aktif kullanıcı sayısı ise 35,6 milyona ulaşmıştır. Pazar payı yaklaşık %1–1.5'tir. Kullanıcı sayısı sürekli bir artış göstermektedir: 2019 Temmuz'daki 6 milyon, 2021 Ocak'taki 25 milyon, 2023 Ocak'taki 57 milyon ve 2025 Şubat'ında 82 milyonun üzerine çıkması beklenmektedir. Yıllık bileşik büyüme oranı hala çift haneli seviyelerde kalmaktadır. Aylık ortalama arama sorgusu sayısı yaklaşık 1,34 milyar olup, bu da Google'ın %0,3'üne denk gelmektedir.
Aşağıda Brave'in iterasyon yol haritası bulunmaktadır.
Brave, gizliliğe öncelik veren bir AI tarayıcısına yükselmeyi planlıyor. Ancak, kullanıcı verilerini toplama konusundaki kısıtlılık, büyük modellerin özelleştirilebilirliğini düşürüyor ve bu da hızlı ve hassas ürün iterasyonunu gerçekleştirmeyi zorlaştırıyor. Yaklaşan Agentic Browser döneminde, Brave belirli gizlilik odaklı kullanıcı gruplarında istikrarlı bir pazar payı koruyabilir, ancak ana oyuncu haline gelmesi zor görünüyor. AI asistanı Leo, mevcut ürünler üzerine işlevsel artırımlar yapan bir eklentiye daha çok benziyor; belirli bir içerik özetleme yeteneğine sahip, ancak AI Agent'a kapsamlı bir geçiş için belirgin bir strateji yok ve etkileşim düzeyindeki yenilikler hala yetersiz.
Donut
Son zamanlarda, Crypto endüstrisi Agentic Browser alanında da ilerleme kaydetti. Girişim projesi Donut, Pre-seed turunda 7 milyon dolar finansman elde etti ve bu turda Hongshan, HackVC ve Bitkraft Ventures ortak liderlik etti. Proje hâlâ erken aşama tasarım aşamasında olup, vizyonu "Keşif - Karar Verme - Kripto Yerel Yürütme" (Discovery, Decision-making, and Crypto-native Execution) entegrasyon yeteneğini gerçekleştirmektir.
Bu yönün özü, kriptoya özgü otomatik yürütme yollarını birleştirmektir. a16z'nin öngördüğü gibi, gelecekte Agent'lerin ana trafik girişi olarak arama motorlarının yerini alması bekleniyor, girişimciler artık Google sıralama algoritması etrafında rekabet etmeyecek, bunun yerine Agent'in yürütmesiyle gelen ziyaretçi ve dönüşüm trafiği için mücadele edecekler. Sektörde bu eğilim "AEO" (Cevap / Agent Motoru Optimizasyonu) olarak adlandırılmıştır, ya da daha ileri bir şekilde "ATF" (Ajans Görev Yerine Getirme), yani artık arama sıralamalarını optimize etmek yerine, kullanıcılar için sipariş verme, bilet alma, mektup yazma gibi görevleri yerine getirebilen akıllı modellere doğrudan hizmet etmektir.
Girişimcilere
Öncelikle, şunu kabul etmek gerekir: Tarayıcı kendisi hâlâ internet dünyasının en büyük yeniden yapılandırılmamış "genel girişi". Küresel masaüstü kullanıcı sayısı yaklaşık 2.1 milyar, mobil kullanıcı sayısı ise 4.3 milyardan fazla; bu, veri girişi, etkileşim davranışları ve kişiselleştirilmiş parmak izi depolamanın ortak taşıyıcısıdır. Bu formun varlığını sürdürmesinin nedeni alışkanlık değil, tarayıcının doğal olarak iki yönlü bir özelliğe sahip olmasıdır: hem veri "okuma girişi" hem de davranış "yazma çıkışı"dır.
Bu nedenle girişimciler için, gerçekten devrim niteliğinde bir potansiyele sahip olan şey, "sayfa çıktısı" düzeyinde yapılan optimizasyonlar değildir. Yeni sekmede Google'un AI genel bakış işlevselliğine benzer bir şey gerçekleştirebilse bile, bu esasen tarayıcı eklentisi düzeyinde bir iterasyondur ve henüz bir paradigma değişikliğini oluşturmaz. Gerçek atılım noktası ise "girdi tarafı" — yani AI Agent'ın girişimcinin ürününü aktif bir şekilde nasıl çağıracağı ve belirli görevleri tamamlayacağıdır. Bu, gelecekteki ürünlerin Agent ekosistemine entegre olup, trafik ve değer dağılımı elde edebilmesinin anahtarı olacaktır.
Eğer bir girişimciyseniz, ürününüzü bir API bileşeni olarak yeniden hayal etmeyi deneyin - akıllı varlıkların sadece onu "anlamasını" değil, aynı zamanda "çağırmasını" da sağlamak. Bu, ürün tasarımına başlarken üç boyutu düşünmenizi gerektirir:
Bir, Arayüz Yapısı Standartlaşması: Ürününüz "çağrılabilir" mi?
Ürünün akıllı varlıklar tarafından çağrılma yeteneği, bilgi yapısının standartlaştırılıp net bir şemaya soyutlanıp soyutlanamayacağına bağlıdır. Örneğin, kullanıcı kaydı, sipariş butonu, yorum gönderimi gibi kritik işlemler, anlamsal DOM yapısı veya JSON eşlemesi ile tanımlanabilir mi? Sistem, Ajans'ın kullanıcı davranış süreçlerini istikrarlı bir şekilde yeniden üretmesine olanak tanıyan bir durum makinesi sağlıyor mu? Kullanıcının sayfadaki etkileşimleri, betik ile geri yüklemeyi destekliyor mu? Stabil erişim sağlayan bir WebHook veya API Uç Noktası var mı?
Bu, Browser Use'un finansmanının başarılı olmasının özüdür - tarayıcıyı düz HTML renderından, LLM'nin çağırabileceği bir anlam ağacına dönüştürmektir. Girişimciler için, web ürünlerinde benzer tasarım anlayışını benimsemek, AI Agent çağında yapılandırılmış uyum sağlamaktır.
İkincisi, Kimlik ve Geçiş: Agent'a "güven engelini aşmasında" yardımcı olabilir misin?
AI ajanlarının işlem yapabilmesi, ödeme veya varlık çağırabilmesi için güvenilir bir ara katmana ihtiyacı var - sen bu olabilecek misin? Tarayıcılar doğal olarak yerel depolamayı okuyabilir, cüzdanı çağırabilir, doğrulama kodlarını tanıyabilir ve iki faktörlü kimlik doğrulamasına erişebilir, işte bu yüzden bulut tabanlı büyük modellere göre yürütme konusunda daha uygundur. Özellikle Web3 senaryolarında: zincir üzerindeki varlıkların arayüz standartları birbiriyle uyumlu değildir, eğer Ajan'ın 'kimliği' veya 'imza yeteneği' yoksa, hiçbir yere gidemeyecektir.
Bu nedenle, Crypto girişimcileri için burada hayal gücüne dayalı bir boşluk var: "Blok Zinciri Dünyasının MCP'si (Çok Yetenekli Platform)". Bu hem bir genel komut katmanı (Ajan'ın Dapp'i çağırmasına izin veren), hem de standartlaştırılmış bir sözleşme arayüzü seti olabilir, hatta yerel olarak çalışan hafif bir cüzdan + kimlik ortağı gibi bir şey olabilir.
Üç, Trafik Mekanizmasının Yeniden Anlaşılması: Gelecek SEO Değil, AEO / ATF
Geçmişte Google'ın algoritmasının ilgisini çekmeye çalışıyordunuz; şimdi AI Agent'ın görev zincirine entegre edilmesi gerekiyor. Bu, ürünlerin net görev parçalanmasına sahip olması gerektiği anlamına geliyor: bu bir "sayfa" değil, bir dizi "çağrılabilir yetenek birimi" olmalıdır; bu, Agent optimizasyonu (AEO) veya görev zamanlama uyarlaması (ATF) yapmaya başlamanız gerektiği anlamına gelir: örneğin, kayıt süreci yapılandırılmış adımlara basitleştirilebilir mi, fiyatlandırma arayüz üzerinden çekilebilir mi, envanter anlık olarak kontrol edilebilir mi;
Farklı LLM çerçevelerindeki çağrı söz dizimini uyarlamaya bile başlamalısınız - OpenAI ve Claude'un fonksiyon çağrısı, araç kullanımı konusundaki tercihleri tutarsızdır. Chrome, eski dünyanın terminali ve yeni dünyanın girişi değildir. Gerçekten geleceği olan girişim projeleri, yeni bir tarayıcı yaratmak değil, mevcut tarayıcıları Ajana hizmet ettirmek ve yeni nesil "komut akışı" için köprüler kurmaktır.
Mücadele etmeniz gereken, akıllı varlık güven zincirinin bir parçası olmaktır;
İnşa etmek istediğin, bir sonraki arama modelindeki "API Kalesi".
Eğer Web2, kullanıcıların dikkatini UI ile çekiyorsa, Web3 + AI Agent dönemi, Agent'ın icra niyetini yakalamak için zincir çağrısı yaparak dikkat çekiyor.
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
Neden AI Agent çağının üçüncü tarayıcı savaşını getireceği söyleniyor?
Yazar: Gate Ventures
Kısa ve Öz
Üçüncü tarayıcı savaşı sessizce başlamış durumda. Tarihe baktığımızda, 1990'ların Netscape'i, Microsoft'un IE'si, ardından açık kaynak ruhuyla Firefox ve Google'ın Chrome'u, tarayıcı rekabeti her zaman platform kontrolü ve teknolojik paradigma değişimlerinin yoğun bir yansıması olmuştur. Chrome, güncellemeleri ve ekosistem bağlantıları sayesinde egemen konuma ulaşırken, Google arama ve tarayıcının "çift tekel" yapısı ile bilgi girişinin kapalı döngüsünü oluşturmuştur.
Ama bugün, bu yapı sarsılmaya başladı. Büyük dil modellerinin (LLM) yükselişi, giderek daha fazla kullanıcının arama sonuç sayfasında "sıfır tıklama" ile görevleri tamamlaması, geleneksel web tıklama davranışlarının azalmasına yol açıyor. Aynı zamanda, Apple'ın Safari'de varsayılan arama motorunu değiştirmeye yönelik söylentileri, Alphabet (Google'un ana şirketinin ) kâr tabanını daha da tehdit ediyor ve piyasa, "arama otoritesi" konusundaki huzursuzluğunu göstermeye başladı.
Tarayıcı kendisi de rol dönüşümü ile karşı karşıya. Artık sadece web sayfalarını gösteren bir araç değil, aynı zamanda veri girişi, kullanıcı davranışları, gizlilik kimliği gibi birçok yeteneğin bir araya geldiği bir konteyner. AI Ajansı güçlü olsa da, karmaşık sayfa etkileşimlerini tamamlamak, yerel kimlik verilerini çağırmak ve web sayfası öğelerini kontrol etmek için hâlâ tarayıcının güven sınırlarına ve işlevsel kumanda alanına ihtiyaç duyuluyor. Tarayıcı, insan arayüzünden, Ajans'ın sistem çağrı platformuna dönüşüyor.
Bu makalede, tarayıcıların hala var olma gerekliliğini tartışıyoruz. Aynı zamanda, mevcut tarayıcı pazarını gerçekten kırabilecek olanın bir başka "daha iyi Chrome" değil, yeni bir etkileşim yapısı olduğunu düşünüyoruz: bilgi sunumu değil, görev çağrısı. Gelecekteki tarayıcılar, AI Agent'lar için tasarlanmalı - yalnızca okuyabilen değil, aynı zamanda yazabilen ve uygulayabilen. Browser Use gibi projeler, sayfa yapısını anlamsal hale getirmeyi, görsel arayüzü LLM tarafından çağrılabilen yapılandırılmış metne dönüştürmeyi ve sayfadan komutlara haritalamayı deniyor, etkileşim maliyetlerini büyük ölçüde azaltıyor.
Piyasa üzerindeki ana akım projeler deneme sürecine girmiştir: Perplexity, geleneksel arama sonuçlarının yerini almak için AI kullanan yerel tarayıcı Comet'i inşa etmektedir; Brave, gizlilik koruma ve yerel akıl yürütmeyi birleştirerek, arama ve engelleme işlevlerini LLM ile güçlendirmektedir; Donut gibi Crypto yerel projeleri ise AI ile blokzincir varlıkları arasındaki etkileşim için yeni bir giriş noktasına odaklanmaktadır. Bu projelerin ortak özelliği, tarayıcının çıktı katmanını güzelleştirmek yerine, giriş kısmını yeniden yapılandırmaya çalışmalarıdır.
Girişimciler için fırsatlar, girdi, yapı ve aracı arasındaki üçgen ilişkide gizlidir. Tarayıcı, gelecekteki Agent'ın dünyayı çağırdığı bir arayüz olarak, kimlerin yapılandırılabilir, çağrılabilir ve güvenilir "yetki blokları" sunabileceğini belirler; bu kişiler yeni nesil platformların bir parçası olabilecektir. SEO'dan AEO'ya (Agent Engine Optimization), sayfa trafiğinden görev zinciri çağrısına kadar, ürün biçimi ve tasarım düşüncesi yeniden şekilleniyor. Üçüncü tarayıcı savaşı, "girdi" üzerinde gerçekleşiyor, "gösterim" değil; galip gelen artık kullanıcıların dikkatini çeken değil, Agent'ın güvenini kazanan ve çağrı girişini elde eden olacaktır.
Tarayıcıların Gelişim Tarihi
1990'ların başında, internet henüz günlük yaşamın bir parçası haline gelmediğinde, Netscape Navigator ortaya çıktı ve yeni bir kıtanın keşfi gibi, milyonlarca kullanıcıya dijital dünyaya giden kapıyı açtı. Bu tarayıcı ilk değildi, ancak gerçekten halkın kullanımına sunulan ve internet deneyimini şekillendiren ilk üründü. O dönemde, insanlar grafik arayüz aracılığıyla web sitelerini bu kadar kolay bir şekilde gezebiliyorlardı, sanki tüm dünya aniden ulaşılabilir hale gelmişti.
Ancak, parlaklık genellikle kısa ömürlüdür. Microsoft, tarayıcının önemini hızla fark etti ve Internet Explorer'ı Windows işletim sistemine zorla entegre edip varsayılan tarayıcı olarak belirlemeye karar verdi. Bu strateji, "platform öldürücü hamle" olarak nitelendirilebilir ve doğrudan Netscape'in pazar hakimiyetini çökertti. Birçok kullanıcı, IE'yi aktif olarak seçmemişti, aksine sistem varsayılan olarak kabul ettiği için bunu kullanmak zorunda kaldı. IE, Windows'un dağıtım gücü sayesinde hızla sektörün egemeni haline geldi, Netscape ise çöküş yoluna girdi.
Zorluklar içinde, Netscape'in mühendisleri radikal ve idealist bir yol seçtiler — tarayıcı kaynak kodunu kamuya açarak açık kaynak topluluğuna bir çağrı yaptılar. Bu karar, sanki teknoloji dünyasında bir "Makedonya tarzı feragat" gibiydi, eski çağın sonunu ve yeni güçlerin yükselişini müjdeledi. Bu kod daha sonra Mozilla tarayıcı projesinin temeli haline geldi, başlangıçta Phoenix (anlamı: anka kuşunun yeniden doğuşu) olarak adlandırıldı, ancak marka sorunları nedeniyle birkaç kez ismi değiştirildi ve nihayetinde Firefox olarak adlandırıldı.
Firefox, sadece Netscape'in basit bir kopyası değildir; kullanıcı deneyimi, eklenti ekosistemi, güvenlik gibi alanlarda birçok yenilik gerçekleştirmiştir. Doğuşu, açık kaynak ruhunun zaferini simgelerken, tüm sektöre yeni bir canlılık katmıştır. Bazıları Firefox'u Netscape'in "ruhsal varisi" olarak tanımlıyor, tıpkı Osmanlı İmparatorluğu'nun Bizans'ın son ışığını miras alması gibi. Bu benzetme abartılı olsa da oldukça anlamlıdır.
Ancak Firefox'un resmi olarak piyasaya sürülmesinden yıllar önce, Microsoft zaten IE'nin altı sürümünü yayınlamıştı. Zaman avantajı ve sistem paketleme stratejisi sayesinde, Firefox başlangıçta takip pozisyonunda yer aldı ve bu yarışın başlangıç noktasında eşit bir rekabet olmadığını gösterdi.
Bu arada, başka bir erken oyuncu da sessizce sahneye çıkıyor. 1994 yılında, Norveç'ten gelen Opera tarayıcısı ortaya çıktı; başlangıçta sadece deneysel bir projeydi. Ancak 2003 yılındaki 7.0 sürümü ile, kendi geliştirdiği Presto motorunu tanıttı ve CSS, duyarlı tasarım, sesli kontrol ve Unicode kodlaması gibi öncü teknolojileri ilk destekleyen oldu. Kullanıcı sayısı sınırlı olmasına rağmen, teknoloji açısından her zaman sektörün önünde yer aldı ve "geeklerin favorisi" haline geldi.
Aynı yıl, Apple Safari tarayıcısını piyasaya sürdü. Bu, anlamlı bir dönüm noktasıydı. O dönemde, Microsoft iflasın eşiğindeki Apple'a rekabet görüntüsünü korumak ve anti-tröst incelemesini önlemek için 150 milyon dolar yatırım yapmıştı. Safari'nin doğuşundan itibaren varsayılan arama motoru Google olsa da, bu Microsoft ile olan tarihsel bağ, internet devleri arasındaki karmaşık ve ince ilişkiyi sembolize ediyor: İşbirliği ve rekabet, her zaman birbirlerinin gölgesi gibi.
2007 yılında, IE7 Windows Vista ile birlikte piyasaya sürüldü, ancak piyasa geri bildirimi vasattı. Firefox ise, daha hızlı güncelleme temposu, daha kullanıcı dostu eklenti mekanizması ve geliştiricilere doğal çekiciliği sayesinde pazar payını istikrarlı bir şekilde yaklaşık %20'ye yükseltti. IE'nin egemenliği giderek zayıfladı, rüzgar değişmeye başladı.
Google ise başka bir strateji izledi. 2001 yılından itibaren kendi tarayıcısını geliştirmek için çalışmalara başladı, ancak bu projeyi onaylatmak için CEO Eric Schmidt'i ikna etmesi altı yıl sürdü. Chrome, 2008 yılında piyasaya sürüldü ve Chromium açık kaynak projesi ile Safari'nin kullandığı WebKit motoruna dayanmaktadır. "Şişkin" bir tarayıcı olarak adlandırılsa da, Google'ın reklamcılık ve marka oluşturma konusundaki derin yetenekleri sayesinde hızla yükseldi.
Chrome'un ana silahı işlevsellik değil, sık sık yapılan sürüm güncellemeleri (her altı haftada bir) ve tüm platformlarda birleşik deneyimdir. Kasım 2011'de, Chrome ilk kez Firefox'u geçerek pazar payını %27'ye ulaştı; altı ay sonra, IE'yi tekrar geçerek, bir rakipten egemen bir konuma geçişini tamamladı.
Bu arada, Çin'in mobil interneti de kendi ekosistemini oluşturmaya başladı. Alibaba'nın UC Browser'ı 2010'lu yılların başında hızla popülerlik kazandı, özellikle Hindistan, Endonezya ve Çin gibi gelişen pazarlarda, hafif tasarımı, veri sıkıştırma özellikleri ile veri tasarrufu gibi özellikleri sayesinde düşük bütçeli cihaz kullanıcılarının beğenisini kazandı. 2015 yılında, dünya genelinde mobil tarayıcı pazar payı %17'yi aştı, Hindistan'da bir dönem %46'ya kadar yükseldi. Ancak bu zafer kalıcı olmadı. Hindistan hükümetinin Çin uygulamalarına yönelik güvenlik denetimlerini artırmasıyla UC Browser, önemli bir pazardan çekilmek zorunda kaldı ve zamanla eski ihtişamını kaybetti.
2020'li yıllara girerken, Chrome'un liderliği zaten kurulmuş durumda ve küresel pazar payı yaklaşık %65 seviyesinde istikrara kavuşmuştur. Dikkate değer bir nokta, Google arama motoru ile Chrome tarayıcısının her ne kadar Alphabet'e ait olsa da, pazar bakımından iki bağımsız hegemonya sistemi olduğudur - ilki, dünya genelinde yaklaşık %90'lık bir arama girişini kontrol ederken, ikincisi ise çoğu kullanıcının internete girdiği "ilk pencereyi" elinde tutmaktadır.
Bu çift tekel yapısını korumak için Google, büyük paralar harcamaktan çekinmiyor. 2022 yılında, Alphabet, Google'ın Safari'deki varsayılan arama motoru olarak kalmasını sağlamak için Apple'a yaklaşık 20 milyar dolar ödedi. Bazı analizler, bu harcamanın Google'ın Safari trafiğinden elde ettiği arama reklamı gelirinin %36'sına denk geldiğini belirtiyor. Başka bir deyişle, Google, surlarını korumak için "koruma ücreti" ödüyor.
Ama rüzgar bir kez daha değişti. Büyük dil modellerinin (LLM) yükselişi ile birlikte, geleneksel arama sarsılmaya başladı. 2024 yılında Google'ın arama pazarındaki payı %93'ten %89'a düştü; hala hakim olsa da, çatlaklar ortaya çıkmaya başladı. Daha yıkıcı olanı ise, Apple'ın kendi AI arama motorunu piyasaya süreceğine dair söylentiler - eğer Safari varsayılan arama motorunu kendi ekosistemine geçirirse, bu yalnızca ekosistem yapısını değiştirmekle kalmayacak, aynı zamanda Alphabet'in kâr temellerini de sarsabilir. Pazar hızlı bir şekilde tepki verdi, Alphabet'in hisse fiyatı 170 dolardan 140 dolara düştü; bu sadece yatırımcıların panikini yansıtmıyor, aynı zamanda arama çağının geleceği konusunda derin bir huzursuzluğu da gösteriyor.
Navigator'dan Chrome'a, açık kaynak ideallerinden reklam ticarileşmesine, hafif tarayıcıdan AI arama asistanına, tarayıcı rekabeti her zaman teknoloji, platform, içerik ve kontrol savaşı olmuştur. Savaş alanı sürekli değişiyor, ancak öz hiç değişmedi: Kim girişe sahip olursa, geleceği tanımlar.
VC gözünde, LLM ve AI çağında insanların arama motorlarına olan yeni taleplerine dayanarak, üçüncü tarayıcı savaşları yavaş yavaş başlıyor. Aşağıda, bazı tanınmış AI tarayıcı projelerinin finansman durumları yer almaktadır.
Eski mimarisi modern tarayıcıların
Tarayıcı mimarisinden bahsederken, klasik geleneksel mimari aşağıdaki gibi gösterilmektedir:
İstemci — Ön Uç Girişi
HTTPS üzerinden en son Google Front End'e ulaşarak TLS şifre çözme, QoS örnekleme ve coğrafi yönlendirme gerçekleştirin. Anormal trafik (DDoS, otomatik tarama) tespit edilirse, bu katmanda hız sınırlaması veya zorluk çıkarabilirsiniz.
Sorgu Anlayışı
Ön yüz, kullanıcı tarafından girilen kelimelerin anlamını anlamalıdır, üç adım vardır: sinirsel yazım düzeltme, "recpie" kelimesini "recipe" olarak düzeltmek; eşanlamlı kelime genişletme, "how to fix bike" ifadesini "repair bicycle" olarak genişletmek. Niyet analizi, sorgunun bilgi, yönlendirme veya işlem niyeti olup olmadığını belirlemeli ve Dikey isteği dağıtmalıdır.
Aday Geri Çağırma
Google'un kullandığı sorgulama teknolojisi şunları ifade eder: ters indeks. Doğru sıralı indekslerde, bir ID verildiğinde dosyaya erişim sağlanır. Ancak kullanıcı, istenen içeriğin on milyarlarca dosya içindeki numarasını bilemeyeceğinden, oldukça geleneksel bir yöntem olan ters indeksi kullanarak hangi dosyaların ilgili anahtar kelimeleri içerdiğini arar. Sonrasında, Google, anlam araması için vektör indeksini kullanır; yani sorgunun anlamına benzer içerikleri bulur. Metin, resim gibi içerikleri yüksek boyutlu vektörlere (embedding) dönüştürür ve bu vektörler arasındaki benzerliğe göre arama yapar. Örneğin, kullanıcı "pizza hamuru nasıl yapılır" diye arasa bile, arama motoru "pizza hamuru yapım kılavuzu" ile ilgili sonuçları döndürebilir, çünkü bunlar anlam olarak benzerlik gösterir. Ters indeks ve vektör indeksleme sürecinden sonra yaklaşık yüz bin sayfa ön elemeden geçirilir.
Çok seviyeli sıralama
Sistemler genellikle BM25, TF-IDF, sayfa kalitesi puanı gibi binlerce hafif özellik aracılığıyla, yüz binlerce aday sayfayı yaklaşık 1000'e indirgeyerek ilk aday kümesini oluşturur. Bu tür sistemler genel olarak öneri motorları olarak adlandırılır. Kullanıcı davranışları, sayfa özellikleri, sorgu niyeti ve bağlam sinyalleri gibi çok çeşitli varlıklar tarafından üretilen büyük miktarda özelliklere dayanır. Örneğin, Google kullanıcı geçmişini, diğer kullanıcıların davranış geri bildirimlerini, sayfa anlamsını, sorgu anlamını ve daha fazlasını bir araya getirirken, aynı zamanda zaman (günün saat dilimi, haftanın belirli günleri) ve güncel haberler gibi bağlamsal unsurları da dikkate alır.
Derin öğrenme ana sıralama yapma
İlk aşamada, Google, RankBrain ve Neural Matching gibi teknolojileri kullanarak sorguların anlamını anlamaya ve büyük belgeler arasından ilk ilgili sonuçları seçmeye çalışmaktadır. RankBrain, Google tarafından 2015 yılında kullanıcı sorgularının anlamını daha iyi anlamak amacıyla tanıtılan bir makine öğrenimi sistemidir, özellikle de ilk kez ortaya çıkan sorgular için. Sorguları ve belgeleri vektör temsiline dönüştürerek, aralarındaki benzerliği hesaplar ve en ilgili sonuçları bulur. Örneğin, "pizza hamuru nasıl yapılır" sorgusu için, belgede tam eşleşen anahtar kelimeler olmasa bile, RankBrain "pizza tabanı" veya "hamur yapımı" ile ilgili olan içeriği tanıyabilir.
Neural Matching, 2018'de Google tarafından piyasaya sürülen bir başka teknolojidir ve sorgular ile belgeler arasındaki anlamsal ilişkileri daha derinlemesine anlamayı amaçlamaktadır. Bu teknoloji, kelimeler arasındaki belirsiz ilişkileri yakalamak için sinir ağı modelleri kullanarak Google'ın sorgular ile web içeriğini daha iyi eşleştirmesine yardımcı olur. Örneğin, "neden dizüstü bilgisayarımın fanı çok gürültülü" sorgusu için Neural Matching, kullanıcının aşırı ısınma, toz birikimi veya yüksek CPU kullanımı hakkında sorun giderme bilgileri aradığını anlamasını sağlar; bu kelimeler sorguda doğrudan yer almasa bile.
Derin Yeniden Sıralama: BERT Modelinin Uygulaması
İlgili belgeler ilk olarak filtrelendikten sonra, Google bu belgeleri daha ince bir sıralama yapmak için BERT (Bidirectional Encoder Representations from Transformers) modelini kullanmaktadır, böylece en alakalı sonuçlar en önde yer alır. BERT, cümle içindeki kelimelerin bağlam ilişkilerini anlayabilen, Transformer tabanlı bir önceden eğitilmiş dil modelidir. Aramada, BERT, ilk olarak elde edilen belgeleri yeniden sıralamak için kullanılır. Sorgu ve belgeleri ortak bir şekilde kodlayarak, aralarındaki ilişki puanlarını hesaplar ve böylece belgeleri yeniden sıralar. Örneğin, "kenarsız yokuşta park etme" sorgusu için, BERT "kenarsız" ifadesinin anlamını anlayabilir ve sürücülere tekerleklerini yol kenarına doğru çevirmelerini öneren sayfaları döndürebilir, aksi takdirde bunu kenarı olan bir durum olarak yanlış anlayabilir. SEO mühendisleri için ise, Google sıralama ve makine öğrenimi öneri algoritmalarını doğru bir şekilde öğrenmek, web sayfası içeriğini hedefli bir şekilde optimize etmek ve daha yüksek sıralama gösterimi elde etmek için gereklidir.
Yukarıda tipik bir Google arama motorunun çalışma süreci verilmiştir. Ancak günümüzde AI ve büyük veri patlaması döneminde, kullanıcıların tarayıcı ile etkileşimleri için yeni talepler ortaya çıkmıştır.
Neden AI tarayıcıları yeniden şekillendiriyor?
Öncelikle, tarayıcı biçiminin neden hâlâ var olduğunu netleştirmemiz gerekiyor. Yapay zeka ajanları ve tarayıcılardan başka bir üçüncü biçim var mı?
Varoluşun, yerini alması mümkün değildir. Yapay zekanın tarayıcıyı kullanabilmesi, ancak tarayıcıyı tamamen ikame edememesi nedenidir? Çünkü tarayıcı, yalnızca veri okuma girişi değil, aynı zamanda veri girişi için genel bir platformdur. Bu dünyada yalnızca bilgi girişi olamaz, aynı zamanda veri üretmek ve web siteleriyle etkileşimde bulunmak da gereklidir, bu nedenle kişiselleştirilmiş kullanıcı bilgilerini entegre eden tarayıcılar hala yaygın olarak var olacaktır.
Bu noktayı yakalıyoruz: Tarayıcı genel bir giriş noktası olarak, yalnızca veri okumak için değil, kullanıcıların verilerle etkileşimde bulunmaları gerektiği için de kullanılır. Tarayıcı, kullanıcı parmak izlerini depolamak için mükemmel bir yerdir. Daha karmaşık kullanıcı davranışları ve otomatik davranışlar, tarayıcı aracılığıyla gerçekleştirilmelidir. Tarayıcı, kullanıcıların tüm davranış parmak izlerini, geçiş belgelerini ve diğer gizli bilgilerini depolayabilir ve otomasyon sürecinde güvene ihtiyaç duymadan çağırma gerçekleştirebilir. Verilerle etkileşimde bulunma eylemi ise şuna dönüşebilir:
Kullanıcı → AI Agent'ı çağır → Tarayıcı.
Yani, tek muhtemel değiştirilebilecek kısım, dünya evrimi trendleriyle uyumlu olan yönlerdir - daha akıllı, daha kişiselleştirilmiş ve daha otomatik. Elbette, bu kısım AI Agent'a devredilebilir, ancak AI Agent'ın kendisi kullanıcıya özel içerik barındırmak için uygun bir yer değildir, çünkü veri güvenliği ve kullanım kolaylığı açısından birden fazla zorlukla karşı karşıyadır. Özellikle:
Tarayıcı, kişiselleştirilmiş içeriklerin depolandığı yerdir:
etkileşim biçiminde derin bir dönüşüm
Başlangıçtaki konuya dönecek olursak, tarayıcı davranışlarımız genel olarak üç forma ayrılabilir: veri okuma, veri girişi, etkileşimli veri. Yapay zeka büyük modelleri (LLM), veri okuma verimliliğimizi ve yöntemimizi derinden değiştirdi; geçmişte kullanıcıların anahtar kelimelere dayalı olarak web sayfalarını arama davranışı oldukça eski ve verimsiz görünüyordu.
Kullanıcı arama davranışının evrimi - - özet cevaplar almak mı yoksa web sayfalarına tıklamak mı olduğu üzerine birçok araştırma yapılmıştır.
Kullanıcı davranışları açısından, 2024 yılı araştırmaları, Amerika'da her 1.000 Google sorgusundan yalnızca 374'ünün açık web sayfasına tıkladığını göstermektedir. Diğer bir deyişle, yaklaşık %63 'sü "sıfır tıklama" davranışına aittir. Kullanıcılar hava durumu, döviz kurları, bilgi kartları gibi bilgileri doğrudan arama sonuçları sayfasından almaya alışkındır.
Kullanıcıların psikolojik açıdan, 2023 yılına ait bir anket, katılımcıların %44'ünün standart doğal sonuçları, öne çıkan özetlerden (featured snippet) daha güvenilir bulduğunu ortaya koymuştur. Akademik araştırmalar da, tartışmalı veya ortak bir gerçeğin olmadığı konularda kullanıcıların çoklu kaynak bağlantılarını içeren sonuç sayfalarını tercih ettiklerini bulmuştur.
Yani, gerçekten de bazı kullanıcılar AI özetlerine güvenmeyebilir, ancak oldukça fazla sayıda kullanıcı davranışı "sıfır tıklama" yönüne doğru kaymıştır. Bu nedenle, AI tarayıcısının uygun bir etkileşim biçimini keşfetmesi gerekiyor - özellikle veri okuma kısmında, çünkü mevcut büyük modellerin "halüsinasyon problemi" henüz ortadan kaldırılmamıştır ve birçok kullanıcı otomatik olarak oluşturulan içerik özetlerine tamamen güvenmekte zorluk çekmektedir. Bu alanda, büyük modeli tarayıcıya entegre etmek, aslında tarayıcıda devrim niteliğinde bir değişiklik gerektirmiyor, sadece modelin doğruluğu ve kontrol edilebilirliğini kademeli olarak çözmek yeterli; bu iyileştirme de sürekli olarak ilerlemektedir.
Ve gerçekten tarayıcıda büyük bir değişimi tetikleyebilecek olan, veri etkileşimi katmanıdır. Geçmişte insanlar etkileşimlerini anahtar kelimeleri girerek tamamladılar - bu, tarayıcının anlayabileceği sınırdır. Ancak şimdi, kullanıcılar giderek daha fazla karmaşık görevleri tanımlamak için bir bütün halinde doğal dil kullanmaya eğilimli, örneğin:
Bu eylemler, insanlar için bile birçok web sitesine erişmek, verileri toplamak ve karşılaştırmak için büyük miktarda zaman harcamayı gerektiriyor. Ancak bu Agentic Tasks (temsilci görevler) giderek AI Agent'lar tarafından devralınıyor.
Bu aynı zamanda tarihsel evrimin yönüyle de uyumludur: otomasyon ve akıllılaşma. İnsanlar ellerini serbest bırakmayı arzuluyor, AI Agent kesinlikle tarayıcıya derinlemesine entegre edilecektir. Geleceğin tarayıcıları tamamen otomasyona uygun olarak tasarlanmalıdır, özellikle de şunları dikkate almalıdır:
Sadece bu iki tasarımın karşılandığı durumlarda, tarayıcı gerçekten AI Agent'ın görevleri yerine getirmesi için istikrarlı bir araç haline gelebilir.
Sonrasında, Browser Use, Arc (The Browser Company), Perplexity, Brave ve Donut dahil olmak üzere beş dikkat çekici projeye odaklanacağız. Bu projeler, AI tarayıcılarının gelecekteki evrim yönlerini ve Web3 ile Kripto ortamlarındaki yerel birleşim potansiyelini temsil ediyor.
Tarayıcı Kullanımı
Bu, Perplexity ve Browser Use'un büyük finansman elde etmesinin arkasındaki temel mantıktır. Özellikle Browser Use, 2025 yılının ilk yarısında ortaya çıkan ikinci en belirgin ve büyüme potansiyeline sahip yenilik fırsatıdır.
Tarayıcı, gerçek anlamda bir anlam katmanı oluşturmuştur ve bunun merkezi, bir sonraki nesil tarayıcılar için anlam tanıma mimarisi inşa etmektir.
Tarayıcı Kullanımı, geleneksel "DOM=insanlara görünen düğüm ağacı"nı "anlamsal DOM=LLM'ye görünen talimat ağacı" olarak yeniden kodlayarak, aracının "izleme noktasının koordinatını" bilmeden hassas bir şekilde tıklamasını, doldurmasını ve yüklemesini sağlar; bu yol "yapılandırılmış metin → fonksiyon çağrısı" ile görsel OCR veya koordinat Selenium'un yerini alır, bu nedenle yürütme daha hızlı, token daha ekonomik ve hata oranı daha azdır. TechCrunch, bunu "AI'nın gerçekten web sayfalarını anlamasını sağlayan yapıştırıcı katman" olarak adlandırdı ve Mart ayında tamamlanan 17 milyon dolarlık tohum turu, bu temel yeniliğe yatırım yapmaktadır.
HTML render edildikten sonra standart DOM ağacı oluşturur; tarayıcı daha sonra ekran okuyucularına daha zengin "roller" ve "durum" etiketleri sağlamak için bir erişilebilirlik ağacı türetir.
Aynı zamanda, bu standart W3C'ye getirildiğinde, tarayıcı girişi sorunlarını büyük ölçüde çözebilir. The Browser Company'nin açık mektubunu ve örneğini kullanarak, The Browser Company'nin fikirlerinin neden yanlış olduğunu daha fazla açıklayalım.
ARC
The Browser Company (Arc ana şirketi ), kamuya açık mektubunda, ARC tarayıcısının normal bakım aşamasına geçeceğini ve ekibin odak noktasının tamamen AI odaklı tarayıcı DIA üzerinde olacağını belirtti. Mektupta, DIA'nın kesin uygulama yolunun henüz belirlenmediği de dile getirildi. Aynı zamanda, ekip mektupta gelecekteki tarayıcı pazarına dair birkaç tahmin sundu. Bu tahminlere dayanarak, mevcut tarayıcı yapısını gerçekten sarsmak için, etkileşim tarafındaki çıktılarda değişiklik yapılmasının kritik olduğunu düşünüyoruz.
Aşağıda ARC ekibinin gelecekteki tarayıcı pazarıyla ilgili yaptığı üç tahmin yer almaktadır.
Öncelikle, Web sayfalarının artık ana etkileşim arayüzü haline gelmeyeceğini düşünüyor. Bu, tartışmasız, zorlu bir yargıdır ve bu nedenle kurucusunun düşüncelerine karşı temkinli bir yaklaşım sergiliyoruz. Bizim açımızdan, bu görüş tarayıcının rolünü önemli ölçüde küçümsüyor ve AI tarayıcı yolunu keşfederken göz ardı edilen kritik bir sorundur.
Büyük modeller niyet yakalama konusunda mükemmel performans sergiliyor, örneğin "bana uçak bileti ayırt" gibi talimatları anlamak. Ancak, bilgi yoğunluğu taşıma kapasitesinde hala yetersizler. Kullanıcılar bir gösterge paneli, Bloomberg terminal tarzı bir not defteri veya Figma benzeri bir görselleştirme tuvali istediklerinde, piksel düzeyinde hassasiyetle düzenlenmiş özel web sayfalarından daha avantajlı bir şey yoktur. Her ürün, ergonomik tasarımlarıyla - grafikler, sürükle bırak özellikleri, kısayol tuşları - süsleyici bir artı değil, bilişsel erişilebilirliği sıkıştıran unsurlardır. Bu yetenekler basit diyalog tabanlı etkileşimle taşınamaz. Örneğin Gate.com'da, eğer kullanıcı yatırım işlemleri yapmak istiyorsa, sadece AI ile konuşmaya güvenmek yetersiz kalır çünkü kullanıcı bilgi girişi, hassasiyet ve yapılandırılmış sunuma yüksek derecede bağımlıdır.
RC ekibinin yol haritasında bir öznel sapma bulunmaktadır; bu da "etkileşimin" giriş ve çıkış olmak üzere iki boyuttan oluştuğunu net bir şekilde ayırt edememeleridir. Giriş tarafında, belirli senaryolar altında görüşleri bir miktar mantıklı olabilir; AI gerçekten de talimat tabanlı etkileşimin verimliliğini artırabilir; ancak çıkış tarafında bu değerlendirme belirgin bir dengesizlik gösteriyor ve tarayıcının bilgi sunumu ve kişiselleştirilmiş deneyimlerdeki merkezi rolünü göz ardı ediyor. Örneğin, Reddit'in kendine özgü bir düzeni ve bilgi mimarisi vardır, AAVE ise tamamen farklı bir arayüze ve yapıya sahiptir. Tarayıcı, hem yüksek düzeyde gizli verileri barındıran hem de çeşitli ürün arayüzlerini genel olarak işleyebilen bir platform olarak, giriş katmanında alternatif olma kapasitesi sınırlıdır; çıkış tarafında ise karmaşıklığı ve standartlaştırılamayan özellikleri onu devrim niteliğinde bir değişime karşı daha da zor hale getirir. Buna karşılık, mevcut pazardaki AI tarayıcılar daha çok "çıktı özeti" katmanına odaklanmaktadır: web sayfalarını özetlemek, bilgileri çıkarmak, sonuçlar üretmek; bu durum, Google gibi ana akım tarayıcılar veya arama sistemleri için köklü bir meydan okuma oluşturmak için yeterli değildir ve sadece arama özetinin pazar payını paylaşmaktadır.
Bu nedenle, pazar payı %66'ya kadar olan Chrome'u gerçekten sarsabilecek olan, "bir sonraki Chrome" olmayacaktır. Bu devrimi gerçekleştirmek için, tarayıcının render modunun köklü bir şekilde yeniden şekillendirilmesi gerekmektedir; bu, akıllı çağın AI Agent liderliğindeki etkileşim ihtiyaçlarına uyum sağlamalı, özellikle de giriş tarafındaki mimari tasarımda. Bu nedenle, Browser Use'un benimsediği teknik yolu daha fazla takdir ediyoruz - odak noktası tarayıcı alt yapısının yapısal reformudur. Herhangi bir sistem "atomik" veya "modüler" hale geldiğinde, bu durumun getirdiği programlanabilirlik ve kombinasyon yetenekleri son derece yıkıcı bir devrim potansiyeli taşır ve bu tam olarak Browser Use'un şu anda izlediği yön.
Özetle, AI Agent'in çalışması hala tarayıcının varlığına yüksek derecede bağımlıdır. Tarayıcı, karmaşık kişiselleştirilmiş verilerin ana depolama yeri olmanın yanı sıra, çeşitli uygulamaların evrensel render arayüzü olarak da işlev görmektedir, bu nedenle gelecekte de temel etkileşim girişi olarak kalmaya devam edecektir. AI Agent'in tarayıcıya derinlemesine entegre edilmesiyle birlikte belirli görevleri tamamlamak için, kullanıcı verilerini çağırarak özel uygulamalarla etkileşimde bulunacaktır, yani esasen girdi tarafında hareket edecektir. Bunun için, tarayıcının mevcut render modunun yenilikçi hale getirilmesi gerekecektir, böylece AI Agent ile maksimum uyumluluk ve adaptasyon sağlanarak uygulamaların daha etkili bir şekilde yakalanması mümkün olacaktır.
Perplexity
Perplexity, öneri sistemi ile tanınan bir AI arama motorudur ve en son değeri 14 milyar dolar, 2024 Haziran'ındaki 3 milyar dolara kıyasla neredeyse 5 kat artmıştır. Aylık ortalama 400 milyondan fazla arama sorgusu işlenmektedir; 2024 Eylül ayında yaklaşık 250 milyon sorgu işlenmiştir. Kullanıcı sorgu sayısı yıllık bazda 8 kat artmış, aylık aktif kullanıcı sayısı 30 milyonu geçmiştir.
Ana özellikleri, sayfaları gerçek zamanlı olarak özetleyebilme yeteneğidir ve anlık bilgi edinme konusunda avantaj sağlamaktadır. Bu yılın başlarında, kendi yerel tarayıcısı Comet'i inşa etmeye başladı. Perplexity, yakında piyasaya sürülecek olan Comet'i sadece web sayfalarını "gösteren" değil, aynı zamanda web sayfalarını "düşünen" bir tarayıcı olarak tanımlıyor. Resmi olarak, tarayıcının içinde Perplexity'nin yanıt motorunun derinlemesine yerleştirileceği belirtiliyor; bu, Steve Jobs'un "tüm makine" düşüncesini yansıtıyor: AI görevlerini tarayıcının derinliklerine gömmek, yan menü eklentileri yapmak yerine. Alıntılarla birlikte sade yanıtlar, geleneksel "on mavi bağlantıyı" değiştirecek ve doğrudan Chrome ile rekabet edecek.
Ancak hala iki temel sorunu çözmesi gerekiyor: yüksek arama maliyetleri ve marjinal kullanıcıların düşük kâr marjı. Perplexity, AI arama alanında öncü bir konumda olmasına rağmen, Google da 2025 I/O konferansında ana ürününü büyük ölçüde akıllı hale getireceğini duyurdu. Tarayıcı için yapılan yeniden yapılandırma ile Google, Overview, Deep Research ve gelecekteki Agentic özelliklerini entegre eden AI Model adında yeni bir tarayıcı sekmesi deneyimi sundu; genel projeye «Project Mariner» deniyor.
Google, AI'yi yeniden şekillendirmek için aktif bir şekilde çalışıyor, bu nedenle yalnızca yüzeysel işlev taklitleri, örneğin Overview, DeepResearch veya Agentics, gerçekten bir tehdit oluşturmakta zorlanıyor. Kaos içinde yeni bir düzen kurma potansiyeline sahip olan, tarayıcı mimarisini temelden yeniden yapılandırmak, büyük dil modellerini (LLM) tarayıcı çekirdeğine derinlemesine entegre etmek ve etkileşim yöntemlerinde köklü değişiklikler gerçekleştirmek olacaktır.
Brave
Brave, Crypto sektöründeki en erken ve en başarılı tarayıcıdır, Chromium mimarisine dayanır ve bu nedenle Google Store'daki eklentilerle uyumludur. Kullanıcıları çekmek için gizlilik ve tarama ile Token kazanma modeline dayanır. Brave'in gelişim yolu, bir ölçüde büyüme potansiyelini sergilemektedir. Ancak ürün açısından bakıldığında, gizlilik elbette önemlidir, ancak talebi hala belirli bir kullanıcı grubuna odaklanmaktadır; geniş kitleler için gizlilik bilinci henüz ana akım karar verme faktörü haline gelmemiştir. Bu nedenle, mevcut devleri bu özellik ile alt etme olasılığı düşüktür.
Şu ana kadar, Brave'in aylık aktif kullanıcı sayısı 82,7 milyona, günlük aktif kullanıcı sayısı ise 35,6 milyona ulaşmıştır. Pazar payı yaklaşık %1–1.5'tir. Kullanıcı sayısı sürekli bir artış göstermektedir: 2019 Temmuz'daki 6 milyon, 2021 Ocak'taki 25 milyon, 2023 Ocak'taki 57 milyon ve 2025 Şubat'ında 82 milyonun üzerine çıkması beklenmektedir. Yıllık bileşik büyüme oranı hala çift haneli seviyelerde kalmaktadır. Aylık ortalama arama sorgusu sayısı yaklaşık 1,34 milyar olup, bu da Google'ın %0,3'üne denk gelmektedir.
Aşağıda Brave'in iterasyon yol haritası bulunmaktadır.
Brave, gizliliğe öncelik veren bir AI tarayıcısına yükselmeyi planlıyor. Ancak, kullanıcı verilerini toplama konusundaki kısıtlılık, büyük modellerin özelleştirilebilirliğini düşürüyor ve bu da hızlı ve hassas ürün iterasyonunu gerçekleştirmeyi zorlaştırıyor. Yaklaşan Agentic Browser döneminde, Brave belirli gizlilik odaklı kullanıcı gruplarında istikrarlı bir pazar payı koruyabilir, ancak ana oyuncu haline gelmesi zor görünüyor. AI asistanı Leo, mevcut ürünler üzerine işlevsel artırımlar yapan bir eklentiye daha çok benziyor; belirli bir içerik özetleme yeteneğine sahip, ancak AI Agent'a kapsamlı bir geçiş için belirgin bir strateji yok ve etkileşim düzeyindeki yenilikler hala yetersiz.
Donut
Son zamanlarda, Crypto endüstrisi Agentic Browser alanında da ilerleme kaydetti. Girişim projesi Donut, Pre-seed turunda 7 milyon dolar finansman elde etti ve bu turda Hongshan, HackVC ve Bitkraft Ventures ortak liderlik etti. Proje hâlâ erken aşama tasarım aşamasında olup, vizyonu "Keşif - Karar Verme - Kripto Yerel Yürütme" (Discovery, Decision-making, and Crypto-native Execution) entegrasyon yeteneğini gerçekleştirmektir.
Bu yönün özü, kriptoya özgü otomatik yürütme yollarını birleştirmektir. a16z'nin öngördüğü gibi, gelecekte Agent'lerin ana trafik girişi olarak arama motorlarının yerini alması bekleniyor, girişimciler artık Google sıralama algoritması etrafında rekabet etmeyecek, bunun yerine Agent'in yürütmesiyle gelen ziyaretçi ve dönüşüm trafiği için mücadele edecekler. Sektörde bu eğilim "AEO" (Cevap / Agent Motoru Optimizasyonu) olarak adlandırılmıştır, ya da daha ileri bir şekilde "ATF" (Ajans Görev Yerine Getirme), yani artık arama sıralamalarını optimize etmek yerine, kullanıcılar için sipariş verme, bilet alma, mektup yazma gibi görevleri yerine getirebilen akıllı modellere doğrudan hizmet etmektir.
Girişimcilere
Öncelikle, şunu kabul etmek gerekir: Tarayıcı kendisi hâlâ internet dünyasının en büyük yeniden yapılandırılmamış "genel girişi". Küresel masaüstü kullanıcı sayısı yaklaşık 2.1 milyar, mobil kullanıcı sayısı ise 4.3 milyardan fazla; bu, veri girişi, etkileşim davranışları ve kişiselleştirilmiş parmak izi depolamanın ortak taşıyıcısıdır. Bu formun varlığını sürdürmesinin nedeni alışkanlık değil, tarayıcının doğal olarak iki yönlü bir özelliğe sahip olmasıdır: hem veri "okuma girişi" hem de davranış "yazma çıkışı"dır.
Bu nedenle girişimciler için, gerçekten devrim niteliğinde bir potansiyele sahip olan şey, "sayfa çıktısı" düzeyinde yapılan optimizasyonlar değildir. Yeni sekmede Google'un AI genel bakış işlevselliğine benzer bir şey gerçekleştirebilse bile, bu esasen tarayıcı eklentisi düzeyinde bir iterasyondur ve henüz bir paradigma değişikliğini oluşturmaz. Gerçek atılım noktası ise "girdi tarafı" — yani AI Agent'ın girişimcinin ürününü aktif bir şekilde nasıl çağıracağı ve belirli görevleri tamamlayacağıdır. Bu, gelecekteki ürünlerin Agent ekosistemine entegre olup, trafik ve değer dağılımı elde edebilmesinin anahtarı olacaktır.
Arama çağında "tıklama"; temsilci çağında "çağrı".
Eğer bir girişimciyseniz, ürününüzü bir API bileşeni olarak yeniden hayal etmeyi deneyin - akıllı varlıkların sadece onu "anlamasını" değil, aynı zamanda "çağırmasını" da sağlamak. Bu, ürün tasarımına başlarken üç boyutu düşünmenizi gerektirir:
Bir, Arayüz Yapısı Standartlaşması: Ürününüz "çağrılabilir" mi?
Ürünün akıllı varlıklar tarafından çağrılma yeteneği, bilgi yapısının standartlaştırılıp net bir şemaya soyutlanıp soyutlanamayacağına bağlıdır. Örneğin, kullanıcı kaydı, sipariş butonu, yorum gönderimi gibi kritik işlemler, anlamsal DOM yapısı veya JSON eşlemesi ile tanımlanabilir mi? Sistem, Ajans'ın kullanıcı davranış süreçlerini istikrarlı bir şekilde yeniden üretmesine olanak tanıyan bir durum makinesi sağlıyor mu? Kullanıcının sayfadaki etkileşimleri, betik ile geri yüklemeyi destekliyor mu? Stabil erişim sağlayan bir WebHook veya API Uç Noktası var mı?
Bu, Browser Use'un finansmanının başarılı olmasının özüdür - tarayıcıyı düz HTML renderından, LLM'nin çağırabileceği bir anlam ağacına dönüştürmektir. Girişimciler için, web ürünlerinde benzer tasarım anlayışını benimsemek, AI Agent çağında yapılandırılmış uyum sağlamaktır.
İkincisi, Kimlik ve Geçiş: Agent'a "güven engelini aşmasında" yardımcı olabilir misin?
AI ajanlarının işlem yapabilmesi, ödeme veya varlık çağırabilmesi için güvenilir bir ara katmana ihtiyacı var - sen bu olabilecek misin? Tarayıcılar doğal olarak yerel depolamayı okuyabilir, cüzdanı çağırabilir, doğrulama kodlarını tanıyabilir ve iki faktörlü kimlik doğrulamasına erişebilir, işte bu yüzden bulut tabanlı büyük modellere göre yürütme konusunda daha uygundur. Özellikle Web3 senaryolarında: zincir üzerindeki varlıkların arayüz standartları birbiriyle uyumlu değildir, eğer Ajan'ın 'kimliği' veya 'imza yeteneği' yoksa, hiçbir yere gidemeyecektir.
Bu nedenle, Crypto girişimcileri için burada hayal gücüne dayalı bir boşluk var: "Blok Zinciri Dünyasının MCP'si (Çok Yetenekli Platform)". Bu hem bir genel komut katmanı (Ajan'ın Dapp'i çağırmasına izin veren), hem de standartlaştırılmış bir sözleşme arayüzü seti olabilir, hatta yerel olarak çalışan hafif bir cüzdan + kimlik ortağı gibi bir şey olabilir.
Üç, Trafik Mekanizmasının Yeniden Anlaşılması: Gelecek SEO Değil, AEO / ATF
Geçmişte Google'ın algoritmasının ilgisini çekmeye çalışıyordunuz; şimdi AI Agent'ın görev zincirine entegre edilmesi gerekiyor. Bu, ürünlerin net görev parçalanmasına sahip olması gerektiği anlamına geliyor: bu bir "sayfa" değil, bir dizi "çağrılabilir yetenek birimi" olmalıdır; bu, Agent optimizasyonu (AEO) veya görev zamanlama uyarlaması (ATF) yapmaya başlamanız gerektiği anlamına gelir: örneğin, kayıt süreci yapılandırılmış adımlara basitleştirilebilir mi, fiyatlandırma arayüz üzerinden çekilebilir mi, envanter anlık olarak kontrol edilebilir mi;
Farklı LLM çerçevelerindeki çağrı söz dizimini uyarlamaya bile başlamalısınız - OpenAI ve Claude'un fonksiyon çağrısı, araç kullanımı konusundaki tercihleri tutarsızdır. Chrome, eski dünyanın terminali ve yeni dünyanın girişi değildir. Gerçekten geleceği olan girişim projeleri, yeni bir tarayıcı yaratmak değil, mevcut tarayıcıları Ajana hizmet ettirmek ve yeni nesil "komut akışı" için köprüler kurmaktır.
Eğer Web2, kullanıcıların dikkatini UI ile çekiyorsa, Web3 + AI Agent dönemi, Agent'ın icra niyetini yakalamak için zincir çağrısı yaparak dikkat çekiyor.