Ho scelto di pubblicare in maniera separata il 4° Run Forever della seconda decade perché sono tante le pagine complessive:).In questo sono comprese quelle oggettive della pubblicazione specifica (sara' dedicata alla 2° parte dell'8° Top imbecilli:) e in piu' esistono quelle generali d'aggiungere.Riguardano la sistemazione degli spazi,il numero dei termini utilizzati e dei riferimenti agli algoritmi di ricerca.All'inizio avevo in mente di collocarli tutti nel 4° Run Forever pero' le pagine di quest'ultimo sono esse stesse "un numero felicemente esagerato" e il riferimento è a una sola pubblicazione:).Quindi ho scelto di sistemarli in maniera separata,anche per avere un link con cui creare il collegamento.
Sono la base delle recenti ricerche dei domini dedicati alle onlus e alcuni suoi particolari sono all'interno di Teck Engine e a sua volta è la parte tecnica del Friend Award Home.
Per oggi ne inseriro' alcuni e la loro sistemazione fisica "sara' naturale" perché andranno nelle pagine delle linee guida dei motori(quelli sistemati sono i 2 maggiori e le stesse applicazioni riguardano poi tutti gli altri).La prima sezione inserita sopra è quella generale e a sua volta ha una suddivisione interna e riguarda le applicazioni dei diversi algoritmi.Esiste poi "una parte non scritta" e sono "i limiti dello sharing" degli strumenti e cioe' le operativita' delle applicazioni rese pubbliche rappresentano solo una parte delle selezioni nelle ricerche mentre quella complessiva è di pertinenza esclusiva dei motori.Quindi tutte le analisi complete hanno solo la maggiore probabilita' di essere all'interno degli algoritmi di qualsiasi ricerca e si inizia dalla pertinenza relativa attraverso i termini (sono in pratica le applicazioni del Keywords Stuffing) e si prosegue con l'aspetto composito del plagio,formato dal medesimo oggettivo in maniera complementare al Content Copied (cioe' il valore aggiunto a tutti i termini effettivamente scritti e questa cosa riguarda solo quelli reali...in diverse analisi fatte fino a questo momento esistono numerosi "termini fittizi" e sono quelli "visibili solo agli strumenti" e quasi in maniera completa sono formati dai termini dei codici stessi:).E' un operazione proprio da "Giro d'Idioti" perché è del tutto improbabile che possano essere sistemati solo "per errore" e cioe' è possibile dimenticarne qualcuno dei codici in termini pero' è escluso che possano essere centinaia o migliaia quelli "dimenticati in buona fede":).Il Giro degli Idioti deriva dal fatto che le posizioni dei termini "non avranno nessuna influenza positiva" legata al loro elevato numero di presenze ma sara' esattamente l'opposto e in maniera veloce pure:)(cioe' con una sistemazione del genere il plagio è garantito prima di fare qualsiasi analisi e di conseguenza il Giro degli Idioti diventa velocissimo perché risulta inutile fare tutto il resto delle analisi...le linee guida da rispettare ne sono tantissime pero' per essere esclusi è sufficiente solo una piccola frazione di ciascuna:)...Messo tutto questo insieme,rappresenta solo la parte maggiore delle linee guida e la sua completezza viene "ulteriormente perfezionata" all'interno dei motori stessi.Queste operazioni sono permesse proprio dagli algoritmi e la loro presenza "non deriva da filantropia informatica" ma da esigenze concrete dei motori,intesi come aziende.Per avere il loro valore economico anch'essi ""hanno una pertinenza" e si concretizza nella restituzione dei dati pero' a differenza degli utenti esiste "un associazione in piu'" e sono i termini a pagamento.L'unione con quelli digitati determina tutti i passaggi sopra e gli altri che aggiungero' sotto.
Questa è la prima descrizione ed è l'origine stessa dell'algoritmo Panda ed è associabile in pieno al concetto del Copied Content e naturalmente anche del plagio.Cioe' tanti contenuti erano creati di proposito in quantita' notevoli pure e quindi la pertinenza di qualsiasi ricerca diventava impossibile e di conseguenza lo era anche quella relativa al traffico organico tramite i termini omologhi a pagamento.L'attualizzazione di una cosa del genere riguarda proprio la percentuale dei Social Network negli algoritmi e non è un caso il fatto che sia di gran lunga la piu' bassa.Il motivo è molto semplice ed è lo stesso descritto all'origine dell'algoritmo Panda e cioe' volumi notevoli pero' di bassa qualita':).La ragione di quest'applicazione è la piu' logica perché gli SN hanno elevati traffici individuali pero' al 99% "sono underground" alla monnezza e quindi hanno poche probabilita' che esistano "equivalenze positive" al suo interno:).Per provare questo è sufficiente applicare una piccola equazione e i primi fattori sono l'elevato traffico degli SN e non in maniera individuale ma è determinato pure dalla loro somma:).Quest'ultima non è determinata da "elementi qualsiasi" ma da FB + Twitter + Google+ Youtube etc...e tutti insieme arrivano a circa il 3% d'incidenza lorda negli algoritmi di ricerca.Quindi l'associazione con Panda deriva dalle descrizioni sopra legate al motivo della sua creazione e da questo deriva la misera percentuale d'incidenza:) (lo è in assoluto e a questo si aggiunge anche la relativita' rispetto agli elevati traffici prodotti dagli SN:)..Tutto insieme è la forma lorda dell'incidenza e per avere quella netta occorre applicare numerose linee guida e nel caso degli SN sono molto probabili le sue violazioni (s'inizia dai "Like Farms" e sono i traffici fittizi legati a FB in maniera simbolica perché è il primo degli SN e poi la sua applicazione riguarda tutti gli altri)
La parte precedente è dedicata all'origine e al tipo d'applicazione mentre in quella sopra "sono sistemati i tempi di recupero" da eventuali sanzioni degli algoritmi.(comunque,qualsiasi revisione richiesta è imprescindibile dal percorso sopra e la sua applicazione riguarda chiuque)...
Altri inserimenti li sistemero' in questa posizione e tutto l'insieme sara' all'interno delle pagine delle linee guida.