Serĉilo-optimumigo

Serĉilo-optimumigo (aŭ angle Search engine optimization, mallonge SEO, france Optimisation pour les moteurs de recherche, germane Suchmaschinenoptimierung, hispane posicionamiento en buscadoresoptimización en motores de búsqueda kaj ruse Поиско́вая оптимиза́ция, latinliterige Poiskóvaja optimizácija) estas la procezo plibonigi la kvaliton kaj kvanton de reta trafiko al retejoretpaĝo per uzo de interretaj serĉiloj. Tia optimumigo celas senpagan trafikon (konatan kiel rezulto de "natura" aŭ "organika serĉo") per tute normala funkciado de la uzata interreta serĉilo - ne temas pri pagita trafiko aŭ reta reklamado. Senpaga trafiko povas origini de malsamaj specoj de serĉoj, inkluzive de serĉoj de bildoj, videoj, novaĵoj, akademiaj datumbazoj kaj serĉiloj kaj industrie specifaj fakaj serĉiloj.

Kiel strategio de interreta merkatado, serĉilo-optimumigo konsideras kiel funkcias interretaj serĉiloj, la komputile programitaj algoritmoj kiuj diktas serĉilon konduton, kion homoj serĉas, la realajn serĉajn terminojn aŭ ŝlosilvortoj tajpita en serĉilojn, kaj kiuj serĉiloj estas preferataj de la celata publiko. serĉilo-optimumigo estas farita ĉar retejo ricevos pli da vizitantoj de serĉilo kiam retejoj rangiĝas pli alte sur la serĉila rezultpaĝo. Tiuj vizitantoj povas tiam eble esti konvertitaj en klientojn.[1]

Meze de la 1990-aj jaroj, la unuaj serĉiloj komencis katalogi la fruan interreton. Retejaj posedantoj rapide rekonis la valoron de prefera listo en serĉrezultoj, kaj kompanioj specialigitaj pri optimumigo baldaŭ aperis.

En la komenco, la inkludo ofte okazis per transdono de la URL de la koncerna paĝo al la diversaj serĉiloj. Ili tiam sendis retan roboton, etan komputilan programon por analizi la retejon kaj indeksi ĝin. La reta roboto alŝutis la retejon al la servilo de la serĉilo, kie dua programo, la tiel nomata indeksilo, nombris kaj ordigis informojn (nomitajn vortojn, ligilojn al aliaj retejoj).

La fruaj versioj de la serĉalgoritmoj estis bazitaj sur informoj disponigitaj fare de la retestroj mem, kiel ekzemple metaelementoj, aŭ per indeksaj dosieroj en serĉiloj. Meta-elementoj provizas superrigardon de la enhavo de paĝo, tamen baldaŭ evidentiĝis, ke la uzo de ĉi tiuj elementoj estis nefidinda, ĉar la elekto de la ŝlosilvortoj uzataj de la retestro povis reflekti malprecizan reprezentadon de la enhavo de la paĝo. Malprecizaj kaj nekompletaj datumoj en la metaelementoj povus tiel listigi sensignifajn paĝojn en specifaj serĉoj. Paĝokreintoj ankaŭ provis manipuli diversajn atributojn ene de la HTML-kodo de paĝo tiel ke la paĝo estas pli bone listigita en la serĉrezultoj.

Ĉar la fruaj serĉiloj multe dependis de faktoroj nur en la manoj de la retestro, ili tre invitis al misuzo kaj rangiga manipulado. Por akiri pli bonajn kaj pli trafajn rezultojn en la serĉrezultoj, la funkciigistoj de la serĉiloj devis adaptiĝi al ĉi tiuj cirkonstancoj. Ĉar la sukceso de serĉilo dependas de montrado de koncernaj serĉrezultoj por la serĉaj terminoj prezentitaj, netaŭgaj rezultoj povus igi uzantojn serĉi aliajn manierojn serĉi la interreton. La serĉiloj respondis per pli kompleksaj algoritmoj por rangolistoj, kiuj inkludis faktorojn pri kiuj retestroj havis malmulte aŭ neniun influon. Larry Page kaj Sergey Brin evoluigis "Backrub" - la antaŭulo de Guglo - serĉilon bazitan sur matematika algoritmo kiu pezigis paĝojn surbaze de la ligostrukturo kaj integrigis ĉi tion en la ranglistan algoritmon. Aliaj serĉiloj poste inkludis la ligostrukturon, ekzemple en la formo de ligo-populareco, en siaj algoritmoj.

La serĉilo Guglo fondiĝis en 1998 fare de Larry Page kaj Sergey Brin kaj la simpla dezajno kaj pli bonaj rezultlistoj helpis fari la serĉilon ege sukcesa. Ekde la komenco de la 2000-aj jaroj, serĉado tra la interreto per serĉiloj en la retkrozilo de la hejma aŭ laboreja komputilo, saĝtelefono aŭ komparebla ilo iĝis ĉiutageca ago, kaj paralele al tio la serĉilo-optimumigo perfektiĝis.

Referencoj redakti

En la unua versio de tiu ĉi artikolo uziĝis traduko kaj adapto unue de du sekcioj el la koncerna angla artikolo, poste kvin sekcioj de la koncerna germana artikolo de la samtema vikipedia paĝo laŭ la stato fine de la 26-a de majo 2023.

  1. Ortiz-Cordova, A. kaj Jansen, B.J. (2012) [https://faculty.ist.psu.edu/jjansen/academic/jansen_high_revenue_customers_2012.pdf artikolo Classifying Web Search Queries to Identify High Revenue Generating Customers (angle: "Klasifikado de retaj serĉaj demandoj por identigi klientojn kiuj promesas altajn enspezojn"),] en Journal of the American Society for Information Sciences and Technology (angle: Ĵurnalo de la Usona Societo por Informaj Sciencoj kaj Teknologio). eldono 63(7), paĝoj 1426 – 1441