Startseite | Lageplan | Impressum | Sitemap

SEO Projekte

 
Wir nehmen es ganz genau
Internetmarketing für unserer Kunden bedeutet frisch und auffallend sichtbar! Auf unserer SEO-Website finden Sie etwa 40 aktuelle Kundenprojekte für KMU (kleine und mittlere Unternehmen) in Österreich.  Schneller Seitenaufbau, aktueller Content und hohe Sichtbarkeit: So werden unsere Kunden mit den passenden Schlüsselbegriffen bei Google Österreich gefunden.

 

Ablauf einer Suchmaschinenoptimierung

Vorab wird ein SEO-Pflichtenheft erstellt und ein Rahmenvertrag mit umfangreichen Schutzbestimmungen für unsere Kunden ausformuliert.

Die Website-Ziele werden geklärt und die Conversion-Ziele definiert.

Anschließend wird ein Keywordspeicher erstellt, der die relevanten Begriffe enthält, die ein Website-Besucher bei seiner Google-Suche eingibt. In Folge wird dieser Speicher operationalisiert. Für jeden Schlüsselbegriff werden Kennzahlen erhoben, um die "Spreu vom Weizen" zu trennen. So werden Master-Keywords, Proof-Terms und Relevant-Terms identifiziert. Weiterführend wird die User-Motivation in Bezug auf das Kaufbedürfnis abgegrenzt und analysiert. Abschließend werden die strategisch wichtigen Schlüsselbegriffe den einzelnen Landing Pages des Webseiten-Projektes zugeordnet.

Dann erst beginnt die eigentliche Website-Optimierung. Die ausgearbeiteten Optimierungsmaßnahmen werden von unserer Agentur in die Webseite eingepflegt, justiert und vermessen. 

Suchmaschinen Optimierung

Wer im Internet Geld verdienen will, für den sind Sichtbarkeit und nutzenorientierte, gut verständliche Inhalte ein MUSS!

Zum Surfen im Internet werden zunehmend mobile Geräte wie Smartphones und Tablets benutzt. Viele Websites sind aber mit mobilen Endgeräten nicht abrufbar, oder der Seitenaufbau zu langsam und unverständlich. Die von uns optimierten Webseiten sind für verschiedenste Endgeräte optimiert und bei Google Österreich mit den jeweils relevanten Suchkriterien unter den ersten 10 Platzierungen.

Rufen Sie uns an und vereinbaren Sie ein unverbindliches Gespräch in unserer Agentur

Tel.: +43-1-815 84 28

Manipulierte Suchergebnisse 

Um Manipulationen bei den Suchergebnissen entgegenzuwirken, hat Google seine Richtlinien überarbeitet. Mangelhafte Arbeit von SEO-Agenturen wird aufgedeckt, von Google abgestraft, und Kunden zahlen dann doppelt. Ein neues Google Webmaster-Tool zeigt Seiten mit einem verdächtigen Muster im Linkprofil an und reduziert ihre Sichtbarkeit. Mit dieser Maßnahme werden jene SEO-Agenturen aufgedeckt, die für die Websites ihrer Kunden "schlechte" Links kaufen. Wir sagen "Bravo Google"! Denn letztlich profitieren die User, die qualitative Suchergebnisse zur richtigen Zeit am richtigen Ort erwarten.

Grundsätzlich gibt es Basisinformationen für SEO zu berücksichtigen: Dazu die Google Einführung in die Suchmaschinenoptimierung.

Keyword Trends

Die User-Abfrage bei Suchanfragen wird zunehmend länger!
Es wird immer spezifischer gesucht und dabei nimmt die Anzahl der eingegebenen Wörter bei den Suchmaschinen-Anfragen stetig zu. In der Regel liegt die Länge einer durchschnittlichen Anfrage derzeit zw. zwei bis drei Wörtern. Dieser Sachverhalt hat erhebliche Auswirkungen auf die Trendanalyse der Keywords für die Vorbereitung zur Positionierung eines Websiteprojektes! Und es ist davon auszugehen, dass sich dieser Trend 2015 in Richtung "bis 3,5 Wörter ergeben eine Keyword-Kombination" entwickeln wird.

SEO Tipps

Folgende Themen sind eigentlich jeweils ein alter Hut , aber dennoch bei vielen Websites unzureichend oder überhaupt nicht berücksichtigt. Auch gehören sie eher zum Thema Technik als zur SEO, aber sie sind Einfluss-Faktoren, wenn es um gute Keyword-Positionen geht.

Status-Code anschauen!

Damit eine Seite bei Google indexiert und laufend überprüft werden kann, muss die Crawlability stimmen. Dazu ist auch der http-Statuscode zu analysieren. Die technisch orientierten Crawler sind sehr sensibel betreffend den Status-Code des Webservers, wie z.B. 200, 404, 410, 301. Es stellt ein Problem dar, wenn eine nicht zu erreichende Seite keinen 404-Fehler als Rückmeldung anzeigt, sondern einen 200-(ok)Status. Besser wäre aber statt 404 gleich eine 410-Fehler Meldung und somit die Info: Diese Site wird nie mehr verfügbar sein. Was geschieht aber, wenn eine URL nicht mehr erreichbar ist und eine 200er Meldung erscheint? Dann wird eine eigentlich gelöschte URL weiter gecrawlt. Damit wird das begrenzte Google Crawl-Budget unnötig belastet. Und so ganz nebenbei: Fehlende 404-Meldungen sind für Google ebenso negative Merkmale.  

Als Agentur haben wir leider feststellen müssen, dass mittels negativer SEO- Angriffe diese Manipulation dazu führt, dass keine relevanten Inhalte auf einer Domain aktualisiert oder neu indexiert werden.                                                    Bei einem Website-Relaunch werden oft die 301-Weiterleitungen vergessen das tut weh und kostet massiv Sichtbarkeit. Oder noch schlimmer: Eine 301-Weiterleitung verweist auf eine 301-Weiterleitung usw. Das tut noch mehr weh. Man schwächt durch solche Ketten die Umleitung und verschenkt Potenzial. Es ist immer auf die richtige Ziel-URL zu verlinken!

Sitemap.xml

Damit vom Crawler nichts übersehen wird, sollte die Sitemap.xml verwendet werden. Diese Anwendung ist eigentlich auch nicht neu, wird aber eben oft einfach vergessen. Es sind dort alle verfügbaren URLs anzuführen. Wichtig: Was nicht indexiert ist, kann auch nicht gefunden werden. Dies gilt ganz besonders für ältere, komplexe oder große Websites. Mit CMS-Systemen lassen sich hier sogar die Prioritäten der Indexe ranken. Für besonders komplexe Domains empfiehlt es sich, gleich mehrere XML-Sitemaps anzulegen und in einer Sitemap-Index-Datei zu referenzieren. So lassen sich dann auch die einzelnen Sites über die Google-Search-Console besser auswerten.

Robots.txt

Der Google Crawler schaut sich mittlerweile alles sehr genau an. Deshalb müssen alle Ressourcen erreichbar sein, eben auch CSS, Java Skript und Bilder. Früher war es eine gängige Praxis, diese teilweise zu blockieren, aber derlei Blockierungen sollten gerade bei älteren Website unbedingt aufgehoben werden. Ebenso muss die Referenz zur Sitemap.xml angeführt sein. (Als http:// bzw. https:// ist der Eintrag nicht lesbar!)

Duplicate Content

Seit dem Panda-Update ist für Optimierer auch die Google Abstrafung ein wichtiges Thema und im Auge zu behalten. Und hier gibt es einen feinen Unterschied im Bereich Duplicate Content bezüglich Crawling und Indexierung zu beachten. Das Crawling wird über die Robots.txt gesteuert und die Indexierung über rel= noindex , welche die Indexierung verbietet - genau so und nicht anders! URLs sollten nicht in die Robots-Datei aufgenommen werden, wenn sie nicht (mehr) im Index sind.

SEO kann manchmal so einfach sein. Und am Ende des Tages heißt es: Mühsam nährt sich das Eichhörnchen . Es sind eben die vielen kleinen Dinge, die eine gute Positionierung im organischen Sichtfeld einer Suchmaschine bewirken.

 

 

 

Zurück zur Startseite