/ -->
XjTyMPT.png XjTyMPT.png

Jan 31, 2017

TD Quality Page:Algoritmi

Ho scelto di pubblicare in maniera separata il 4° Run Forever della seconda decade perché sono tante le pagine complessive:).In questo sono comprese quelle oggettive della pubblicazione specifica (sara' dedicata alla 2° parte dell'8° Top imbecilli:) e in piu' esistono quelle generali d'aggiungere.Riguardano la sistemazione degli spazi,il numero dei termini utilizzati e dei riferimenti agli algoritmi di ricerca.All'inizio avevo in mente di collocarli tutti nel 4° Run Forever pero' le pagine di quest'ultimo sono esse stesse "un numero felicemente esagerato" e il riferimento è a una sola pubblicazione:).Quindi ho scelto di sistemarli in maniera separata,anche per avere un link con cui creare il collegamento.
Sono la base delle recenti ricerche dei domini dedicati alle onlus e alcuni suoi particolari sono all'interno di Teck Engine e a sua volta è la parte tecnica del Friend Award Home.
Per oggi ne inseriro' alcuni e la loro sistemazione fisica "sara' naturale" perché andranno nelle pagine delle linee guida dei motori(quelli sistemati sono i 2 maggiori e le stesse applicazioni riguardano poi tutti gli altri).La prima sezione inserita sopra è quella generale e a sua volta ha una suddivisione interna e riguarda le applicazioni dei diversi algoritmi.Esiste poi "una parte non scritta" e sono "i limiti dello sharing" degli strumenti e cioe' le operativita' delle applicazioni rese pubbliche rappresentano solo una parte delle selezioni nelle ricerche mentre quella complessiva è di pertinenza esclusiva dei motori.Quindi tutte le analisi complete hanno solo la maggiore probabilita' di essere all'interno degli algoritmi di qualsiasi ricerca e si inizia dalla pertinenza relativa attraverso i termini (sono in pratica le applicazioni del Keywords Stuffing) e si prosegue con l'aspetto composito del plagio,formato dal medesimo oggettivo in maniera complementare al Content Copied (cioe' il valore aggiunto a tutti i termini effettivamente scritti e questa cosa riguarda solo quelli reali...in diverse analisi fatte fino a questo momento esistono numerosi "termini fittizi" e sono quelli "visibili solo agli strumenti" e quasi in maniera completa sono formati dai termini dei codici stessi:).E' un operazione proprio da "Giro d'Idioti" perché è del tutto improbabile che possano essere sistemati solo "per errore" e cioe' è possibile dimenticarne qualcuno dei codici in termini pero' è escluso che possano essere centinaia o migliaia quelli "dimenticati in buona fede":).Il Giro degli Idioti deriva dal fatto che le posizioni dei termini "non avranno nessuna influenza positiva" legata al loro elevato numero di presenze ma sara' esattamente l'opposto e in maniera veloce pure:)(cioe' con una sistemazione del genere il plagio è garantito prima di fare qualsiasi analisi e di conseguenza il Giro degli Idioti diventa velocissimo perché risulta inutile fare tutto il resto delle analisi...le linee guida da rispettare ne sono tantissime pero' per essere esclusi è sufficiente solo una piccola frazione di ciascuna:)...Messo tutto questo insieme,rappresenta solo la parte maggiore delle linee guida e la sua completezza viene "ulteriormente perfezionata" all'interno dei motori stessi.Queste operazioni sono permesse proprio dagli algoritmi e la loro presenza "non deriva da filantropia informatica" ma da esigenze concrete dei motori,intesi come aziende.Per avere il loro valore economico anch'essi ""hanno una pertinenza" e si concretizza nella restituzione dei dati pero' a differenza degli utenti esiste "un associazione in piu'" e sono i termini a pagamento.L'unione con quelli digitati determina tutti i passaggi sopra e gli altri che aggiungero' sotto.
Questa è la prima descrizione ed è l'origine stessa dell'algoritmo Panda ed è associabile in pieno al concetto del Copied Content e naturalmente anche del plagio.Cioe' tanti contenuti erano creati di proposito in quantita' notevoli pure e quindi la pertinenza di qualsiasi ricerca diventava impossibile e di conseguenza lo era anche quella relativa al traffico organico tramite i termini omologhi a pagamento.L'attualizzazione di una cosa del genere riguarda proprio la percentuale dei Social Network negli algoritmi e non è un caso il fatto che sia di gran lunga la piu' bassa.Il motivo è molto semplice ed è lo stesso descritto all'origine dell'algoritmo Panda e cioe' volumi notevoli pero' di bassa qualita':).La ragione di quest'applicazione è la piu' logica perché gli SN hanno elevati traffici individuali pero' al 99% "sono underground" alla monnezza e quindi hanno poche probabilita' che esistano "equivalenze positive" al suo interno:).Per provare questo è sufficiente applicare una piccola equazione e i primi fattori sono l'elevato traffico degli SN e non in maniera individuale ma è determinato pure dalla loro somma:).Quest'ultima non è determinata da "elementi qualsiasi" ma da FB + Twitter + Google+ Youtube etc...e tutti insieme arrivano a circa il 3% d'incidenza lorda negli algoritmi di ricerca.Quindi l'associazione con Panda deriva dalle descrizioni sopra legate al motivo della sua creazione e da questo deriva la misera percentuale d'incidenza:) (lo è in assoluto e a questo si aggiunge anche la relativita' rispetto agli elevati traffici prodotti dagli SN:)..Tutto insieme è la forma lorda dell'incidenza e per avere quella netta occorre applicare numerose linee guida e nel caso degli SN sono molto probabili le sue violazioni (s'inizia dai "Like Farms" e sono i traffici fittizi legati a FB in maniera simbolica perché è il primo degli SN e poi la sua applicazione riguarda tutti gli altri)
La parte precedente è dedicata all'origine e al tipo d'applicazione mentre in quella sopra "sono sistemati i tempi di recupero" da eventuali sanzioni degli algoritmi.(comunque,qualsiasi revisione richiesta è imprescindibile dal percorso sopra e la sua applicazione riguarda chiuque)...
Altri inserimenti li sistemero' in questa posizione e tutto l'insieme sara' all'interno delle pagine delle linee guida.
La parte aggiunta sotto è tratta dalla pagina A+ del 9° RF
All'interno della pagina ho sistemato 3 elementi per il momento ed oggi ne aggiungo altrettanti:
 
Questa è l'immagine normale
E' l'impatto seo nell'algoritmo Panda e non esiste assolutamente nessun ruolo reale
Questa è l'immagine normale
"Panda Prevention" è una sintesi pero' è molto eloquente:)
Per eliminare "gli effetti Panda" è "sufficente" fare contenuti di qualita' e senza "duplicati":)
Naturalmente è solo semplice da scrivere e gli esempi sono in tante pubblicazioni pero' è il modo migliore per comprendere i contenuti dell'immagine sopra e cioe' il ruolo effettivo dei seo (non possono  avere ruolo reale per la semplice ragione che i contenuti non li creano loro:)...
Questo è invece il primo di Penguin ed è un altro algoritmo di Google
Per oggi ho inserito solo a "cosa serve" (si occupa di link in entrata nei siti) e in questa posizione ha gia' un ruolo importante per i contenuti della pagina relativa e il passaggio aggiunto sopra.In questo RF ne avra' anche un altro perche' aggiungero' "degli impieghi diretti":ovviamente lo sono tutti i passaggi normali della pagina A+ ed oggi aggiungero' anche i Broker Link (all'interno possono essere anche sistemati i paid link) e i Backlinks.Il senso dell'operativita' di Penguin (link in entrata nei siti) è ovvio e un suo esempio è inserito proprio all'interno del collocamento fisico della pagina ed è ovviamente,in quella naturale,di TD Quality(sono le linee guida dei 2 principali motori e quindi è la collocazione naturale degli algoritmi ed è valida per i 2 principali strumenti e per tutti gli altri.Ovviamente non esistono "ideologie tecniche" ma la scelta è oggettiva al funzionamento stesso del web e sono le ricerche (è semplice immaginare cosa sia l'opposto ed è sufficente unire i Long Tail Keywords ai "likes" (o qualsiasi altra cosa omologa) degli SN e sara' semplice determinare quanto possa essere "attendibile la pertinenza" dei secondi (likes) rispetto ai primi (Long Tail...).Ho specificato questo perche' l'ultimo livello della scala sono proprio gli SN e da essi,prevalentemente,provengono Backlinks ed "omologhi" inseriti nel generico link sckemes.
Il motivo di questi inserimenti è quello di Origin RF e cioe' il valore reale dei dati e di conseguenza delle applicazioni delle idee inserite e per essere tali,la prima esclusione è l'appartenenza a link sckemes (indirettamente il motivo è descritto nella prima immagine di oggi dell'algoritmo Panda)
icon