SEO BEGRIFFE C | SEO Optimization | ZURÜCK ZUR STARTSEITE

Search Engine Optimization | SEO Agency (SEM-Agency)

SEO LEXIKON - LEXIKON in ZUSAMMENARBEIT MIT:
SEM-Agency.de
| Interbroich.de | Banana-SEO.COM | PAGERANKSEO.de | SEO-LÖWE.com | SEO6ix.de | seo6ix.com

Seo BEGRIFFE C | Suchmaschinenoptimierung | search engine optimization - SEO Services | SEM SEO | Seo freundliche Gestaltung

BANANA SEO = Search Engine Optimization | BANANA SEO ist eine anerkannte und populäre SEO Seite aus den Vereinigten Staaten.

SEO | Internetmarketing | SEM SEO

SEO Begriffe | SEO LEXIKON | BUCHSTABE C

Banana-Seo | Seo LÖSUNGEN | BEGRIFFE ERKLÄREN

SEO LEXIKON - BEGRIFFE MIT BUCHSTABE C

Cache
Vor dem Hintergrund der Suchmaschinenoptimierung bezeichnet Cache die Technik einiger Suchmaschinen wie beispielsweise Google, Webseiten in einem Puffer zwischenzuspeichern. Ist eine Webseite gerade nicht erreichbar, kann sie über den Cache aufgerufen werden. Der Cache stellt eine Webseite dann in dem Zustand dar, in dem sie von der Suchmaschine beim Spider-Prozess abgelegt wurde. Ein Blick in den Cache kann Spam-Methoden und Manipulationen an den Tag legen. Mit dem Meta-Tag "No-Cache" kann eine Zwischenspeicherung im Cache ausgeschlossen werden. Der Cache ist auch für eine weitere Praxis bei der Suchmaschinenoptimierung von Bedeutung: Webseiten werden oft von Providern wie z.B. T-Online im Puffer des Proxy-Servers zwischengespeichert. Bei einem späteren Zugriff durch einen Kunden des Providers auf die Webseite, wird diese nicht vom Anbieter der Site geladen, sondern aus dem Cache des Proxy-Servers. Dadurch können die Zugriffszahlen auf eine Webseite auf einfache Weise manipuliert werden.

Cascading Style Sheets (CSS)
Diese Stilanweisungen ermöglichen eine getrennte Bearbeitung von Struktur und Layout bei der Entwicklung von Webseiten. Darstellungsoptionen wie z.B. Layer, Schriftarten und Schriftgrößen werden über CSS ähnlich wie Formatvorlagen ausgezeichnet. CSS können getrennt von HTML-Dateien gespeichert und verwendet werden. CSS ermöglicht gewieften Suchmaschinen-Optimierern, Keywords unsichtbar in Webseiten unterzubringen.

CGI
Das "Common Gateway Interface" ist eine Standardschnittstelle zwischen Server und Programm, die beim Laden einer Webseite ausgeführt werden. Mit CGI-Programmen werden dynamische Dienste im Internet realisiert, wie die Verarbeitung von Formularen oder User-Foren).

Click
Aufruf einer Webseite durch Aktivierung eines Links mit der Maus.

Clickable Image
Abbildung, die so formatiert ist, dass sie bei einem Maus-Klick eine Aktion auslöst. In eine Abbildung kann eine URL eingebettet sein. Bei mehreren Links handelt es sich um eine Image Map.

Click Popularity
Manche Suchmaschinen arbeiten mit der Technik der Click-Popularität, die die Häufigkeit eines Besuchs auf einer Webseite nach der Anzahl er Clicks in speziellen Ergebnisseiten bewertet (z.B. Direct Hit). Sie ist ein Relevanz-Kriterium in Ranking-Algorithmen: Die am häufigsten angeklickten Ergebnisse gelangen auf eine bessere Ranking-Position. Dieses Verfahren wird jedoch nicht mehr von vielen Suchmaschinen verwendet, da es zu leicht manipuliert werden kann.

Click Through Rate (CTR)
Prozentuale Clickrate für ein Werbeobjekt. Stellt die Relation zwischen der Häufigkeit, mit der ein Werbeobjekt (z.B. Banner) angezeigt wurde (Page Impressions) und der Häufigkeit, mit der auf das Werbeobjekt geklickt wurde (Clicks), dar. Die CTR dient als Bewertungsmaß für die Werbewirkung einer Aktion. Bei der Suchmaschinenoptimierung gilt: Je besser das Ranking einer Webseite in einer Suchmaschine, desto höher ist die Click Trough Rate.

Clicking Agent
Ein Roboter, der Hits auf Webseiten erzeugt, Links anklickt und damit Besucher simuliert.

Client
Ein Client ist ein ein Programm, das auf die Ressourcen, Dienste oder Daten eines Servers zugreift. Der Client schickt Anfragen des Nutzers in einem dafür vorgesehenen Protokoll an den Server und stellt dessen Antworten benutzerfreundlich auf dem Bildschirm dar. Web-Browser und Suchmaschinen-Robots sind typische Clients.

Client-Server-Achitektur
Netzwerk- bzw. Datenbankstruktur mit hierarchischer Aufgabenverteilung. vorliegt. Der Server ist Anbieter von Ressourcen, Diensten und Daten, auf die die Clients (Arbeitsstationen) zugreifen.

Cloaking
Ein Spam-Verfahren, das vom Server ausgeführt wird und den Suchmaschinen-Spider durch Aufrufen verschiedener Webseiten mit nur einer URL täuscht. Ein Besucher bzw. User Agent erhält eine Webseite, die entsprechend seiner Eingabe auf ihn hin optimiert worden ist. Mit Cloaking können die Spider der Suchmaschinen die Besucher einer Site identifizieren und unterscheiden. Durch individuell optimierte Webseiten soll eine hohe Suchmaschinen-Position erzielt werden. Im Extremfall werden dem Besucher ganz andere Inhalte angezeigt, als er über die Suchmaschine gesucht hat. Werden Cloaking-Methoden von Suchmaschinen als Spam eingestuft, kann die Website aus dem Datenbestand gelöscht werden. Cloaking benötigt Verfahren wie IP Delivery oder User Agent Delivery.

Closed Loop
"Geschlossene Verlinkung". Linkstruktur, bei der Websites gegenseitig stark verlinkt sind, aber davon abgesehen kaum Inbound Links und Outbound Links aufweisen. Google erkennt eine Querverlinkung und stuft sie als Spam ein.

Comment Spam
Die HTML-Tags werden benutzt, um Text, beispielsweise Schlüsselwörter, vor Browsern zu verstecken, für Suchmaschinen jedoch erkennbar zu lassen.

Content-Management-System
Ein Content-Management-System (CMS) oder auch Redaktionssystem genannt ist eine Software die hauptsächlich zur Wartung und Aktualisierung von Webseiten verwandt wird. Das System trennt den Inhalt vom Layout, so dass bei Änderungen des Erscheinungsbildes der Internetpräsenz nicht jede Webseite bearbeitet werden muss. Ein weitere Vorteil der CMS-Programme ist die Anwendung ohne Programmierung- kenntnisse. Nicht optimierte CMS-Systeme erzeugen Webseiten die von Suchmaschinen nur teilweise indexiert werden.

Content Provider
Unternehmen, das Inhalte unterschiedlichster Art auf einer Website bereithält, beispielsweise Nachrichten, Unterhaltung, Börsen-Informationen, und diese anderen Portal-Betreibern nach Bedarf kostenpflichtig zur Verfügung stellt.

Cookie
Dateien, die durch das Aufrufen einer Webseite auf der Festplatte des Besuchers abgelegt werden. Cookies sind Text-Dateien und speichern Daten vorübergehend ab.

Cookies weisen eine Maximalgröße von 4 KB auf und speichern die Besuchsdauer, die besuchten Seiten oder Eingaben des Besuchers ab. Cookies werden von den meisten Suchmaschinen abgelehnt. Webseiten, die die Akzeptanz von Cookies für den Zugang voraussetzen, werden von so programmierten Suchmaschinen nicht erfasst. Bei Client-Anforderungen wird das Laden der Webseite anhand der gespeicherten Daten gesteuert, beispielsweise beim Customizing oder Zwischenspeichern von Session-Parametern.

Cost per Click (CPC) Counter
Gibt die KostenproClick auf einen Link an durch dafür geeignete Werbe-Programme wie Google Adwords.

 

SEO BEGRIFFE ERKLÄRT BUCHSTABE C

SEO BEGRIFFE | SEO SERVICES | SUCHMASCHINENOPTIMIERUNG | SEO LEXIKON

 

Counter
Auch Page Counter, Zähler. Counter werden auf vielen Websites zur Besucherzählung verwendet. Als Monitoring-Instrument für die Suchmaschinenoptimierung sind Counter nicht so gut geeignet, da die Besuche gezählt werden, nicht jedoch die Besucher – ein Besucher kann mehrere Zählvorgänge auslösen. Für das Monitoring ist die Auswertung der Logfiles das bessere Verfahren. Durch Proxy-Server können auch Logfiles oft einen Teil des Besucherverkehrs unterschlagen.

Crawler
Crawler im Englischen to crawl = kriechen ist ein automatisiertes Computerprogramm, das im Web Websites besucht und den gefundene Content abspeichert und indexiert. Crawler auch Bot oder Spider genannt werden von Suchmaschinenanbietern eingesetzt, um entsprechenden Datenbestand aufzubauen. Eine Suchmaschine gibt dem Crawler eine Liste von zu besuchenden Internetadressen (URLs) vor. Das Computerprogramm besucht die urls der ersten Seite der Liste, speichert die Inhalte in einer Datenbank ab und folgt dann den Links zu weiteren Websites. Diese neuen Links werden dann wieder in eine neue Liste noch zu besuchender urls. eingefügt. So finden die Crawler nach und nach alle Websites im Web. Bildlich gesprochen der Crawler kriecht von Website zu Website daher wohl der Name.

Cross-Linking
Querverlinkung. Bezeichnet die gegenseitige Verlinkung von Seiten verschiedener Websites. Mit dem Cross-Linking soll normalerweise die Link Popularity von Seiten erhöht bzw. ein gutes Google PageRanking übernommen werden. Google stuft mitunter übertriebenes Cross-Linking mit einem "PR 0" als Spam ein.

Cuil
Cuil ist die neue Suchmaschine von ex Google Mitarbeitern die es mit Google aufnehmen möchten. Der wichtigste Unterschied zu Google ist: Angebliche 120 Milliarden indizierte Websites somit dreimal größer als Google; die semantische Suche steht im Vordergrund es wird der Inhalt der Websites analysiert, nicht ihre Popularität; keine Datenspeicherung des Nutzerverhaltens der User. Bisher hat man den US-Markt ins Auge gefasst, so dass hauptsächlich englische Suchergebnisse mit Bild und kurzem Text zusammengesetzt aus Titel und Beschreibung in Spalten angezeigt und durch Kategorien ergänzt werden.

Customer Relationship Management (CRM)
Kundenbeziehungsmanagement oder Kundenpflege beschreibt die Verwaltung von Kundenbeziehungen: Die Unternehmens- aktivitäten sind im Idealfall auf langfristige Kundenbeziehungen ausgerichtet, um den Erfolg des Unternehmens

 

Zum Anfang der SEO-Erläuterungen

SIE befinden sich im
>> SEO-Lexikon Begriffe mit C

 

FAN WERDEN | FACEBOOK

BANANA-SEO - auf FACEBOOK