PP-Blogsberg

Partnerprogramme, Affiliate-Marketing, News aus der Scene!

Suchen & Finden
Abonnement
Kontakt

@:pp(aet)pp-blogsberg.de
Phone: 0951 917 082 97

Du durchsuchst gerade das Archiv der Kategorie ‘SEO-Affiliates’.

Kategorie: SEO-Affiliates

2013 2 Sep

Seo-Tools - und dann?

Abgelegt unter: SEO-Affiliates | RSS 2.0 | TB | 2 Kommentare

In den letzten Jahren schießen immer mehr Seo-Tools wie Pilze aus dem Boden. Ein Teil der Tools ist im Einklang mit den Google-Guidelines, der wohl überwiegende Teil eher nicht so ganz. ;-) Das ist für mich auch nicht das Ding. Wer mich kennt, weiß das ich aus folgenden Gründen keinen großen Hang zu Fremdtools habe:

1. Meine Daten befinden sich in anderen Systemen, die nicht mehr 100% von mir kontrolliert werden können.
Keinem Anbieter möchte ich etwas unterstellen und ich habe auch keinerlei Anzeichen, dass irgendwer irgendwo ein Leck in seinen Tools hat. Andererseits finde ich es schon ziemlich scary wenn ich Schwimmbrillen verkaufen würde und nutze das selbe Tool mit den selben Daten wie meine 5 Mitbewerber. Das bedeutet doch, dass sich 6 Konkurrenten auf der selben Datenbasis ans Optimieren machen. Am Ende gibt das entweder ein stetes hin und her oder der Stärkere (der mit mehr Manpower) siegt mit dem besseren Ranking.

2. Footprints wie Yeti
Unter 1. hatte ich ja schon mein Datenbasis-Problem angesprochen. Viele Tools sind darauf ausgerichtet Vorschläge für Optimierungen zu machen, egal ob das nun Linkvorschläge, Strukturanpassungen oder HTML-Verbesserungen sind. Wenn auch die Vorschläge für das einzelne Projekt unterschiedlich sein mögen, dann ist doch die Daten- und Berechnungsbasis die selbe. Aus meiner Sicht ergeben sich damit klare und vorallem rückverfolgbare Footprints.

3. Datenmüll-Sammlungen
Aus persönlichen Gesprächen wissen viele, dass ich mich nicht als SEO sehe. Eher finde ich mich im Bereich cleveres Online-Marketing wieder. Von daher bin ich es tatsächlich leid mir die 1375te Ranking-Auswertung zum aufgesplitteten Keyword-Feld rund um XYZ unter Einbezug der Durchklickrate als KPI mit gestrecktem Beugungsfaktor nach Thorbe-Ole Svakfolelse. Und wenn man schon ein teuer Tool hat, dann nutzt man es möglicherweise auch vielleicht ein bisschen viel und am Ende kommen Daten heraus, die man nicht wirklich braucht.

4. Mangelnde Vergleichbarkeit
Jedes Tool hat eigene Stärken und genau da liegt auch der Schwachpunkt. Es gibt keine klare Metrik, die es ermöglicht die Tools untereinander zu vergleichen, bzw. abzustimmen. Woher soll der Kunde wissen, dass er das richtige Tool benutzt, wenn das Gegenüber sagt: “Oh also das Tool von fhdzrhe sagt aber, dass deine Seite nicht so dolle ist”.

Mein Fazit:
Es handelt sich hierbei um meine persönliche Meinung und natürlich teste ich hin und wieder auch Tools, allerdings mag ich ganz gern meine eigenen Tools und Auswertungen. Die sind nicht so schön und umfangreich wie die kostenpflichtigen Tools, dafür bekomme ich genau die Daten die ich will.

Bis vor ca. 1 - 1 1/2 Jahren war ganz klar: Neues Projekt = expired Domain, im Idealfall mit ähnlichem Themen-Content. Dann lief das Ding fast von alleine. Inzwischen ist das ein bisschen anders. Da ich mir gerade selbst Gedanken dazu machen musste, lass ich diese hier raus:

Vorteile einer Expired Domain
- Bestehendes Backlinkprofil
- Domain-Alter
- ggf. bestehende themenrelevanz
- evtl. bestehendes Social-Media-Link-Profil

Vorteile einer neuen Domain
- Nicht kaputt optimiert
- frei wählbar
- neue Domains/neuer Inhalt ranked kurzfristig schneller

Bei einem neuen Projekt, hat man nun die Qual der Wahl. Eine Expired Domain verwende ich, wenn ich dieser vor Jahren das Leben gerettet habe und sie seit dem im Domain-Portfolio herumliegt. Meist hatte ich mir bei Domain-Namen was gedacht und so kann ich die Domains auch gut gebrauchen. Inzwischen hab ich das Gefühl, dass Suchmaschinen wie Bärbel ziemlich schnell raffen wenn eine Domain anderweitig projektiert wird. Meist geht dabei auch ein Großteil der ehemaligen Backlinkpower flöten. Deshalb sehe ich bei länger im eigenen Portfolio geparkten Domains kaum einen Anlass sich Sorgen um evtl. bestehende Abstrafungen usw. zu machen.

Eine neue Domain verwende ich, wenn aus den bestehenden Altbeständen keine Domain 100%ig aufs Projekt passt. Alternativ bietet sich eine neue Domain an, wenn man ein sehr aktuelles und kurzfristiges Thema angeht und die Domain dabei ggf. verbrennen kann/will. Vor solchen Projekten nehme ich inzwischen Abstand, das ist mir einfach zuviel Action um mal schnell Kohle zu machen.

Hast Du noch Ideen und Vorschläge dazu?

Da ich wohl zu den wenigeren gehöre, die bereits am 14ten im Hotel am Müggelsee aufschlagen suche ich nach einem netten Menscher, der Bock hat mit mir Abends was Essen zu gehen. Schreib mir einfach ne Nachricht via Facebook: https://www.facebook.com/sascha.preisegger

CU @ Campixx & Danke

Vor ca. 4 Wochen im Postfach eines Projekts aufgeschlagen: Big traffic change for top URL. Normalerweise bekommt ja eher keine Emails von den Webmastertools, bzw. bisher war ich in dem Glauben “keine Email = kein Ärger”. Gerade deshalb bin ich erstmal zusammengezuckt, da es auch keinen Abstrafungsgrund geben kann. Nachdem ich mich erstmal wieder gesammelt habe, geprüfte ich erstmal, ob die Nachricht auch in den WT-Nachrichten angezeigt wird, nicht dass sich da jemand einen blöden Scherz erlaubt, aber war so. Die Nachricht findet sich auch da. Gefühlte 800 Minuten Kopfkino später dachte ich es könnte ja nicht schaden auch mal den Text der Nachricht zu lesen und da stand:

Search results clicks for http://wwwverratichdochnichnichtdudepp.tld have increased significantly.
This message is not indicative of any problem in your site. It is simply to inform you that the number of clicks that one of your pages receives has increased recently. If you have just added new content, this may indicate that it has become more popular on Google. The number of clicks that your site receives from Google can change from day to day for a variety of factors, including automatic algorithm updates.

Increased = gestiegen/gewachsen, sprich Google teilt mir mit, dass eine Seite wohl deutliche Besucherzuwächse hat. Puh kurz abgeschwitzt und an einen Satz der früheren Grundschullehrerin meiner Tochter gedacht: “Wer lesen kann ist klar im Vorteil”.

Nach ein bisschen Suchen (man will ja wissen warum) hat sich herausgestellt, dass ich der Seite kürzlich einen besseren TITLE und eine aussagekräftigere Description gegeben habe. Also alles im grünen Bereich. Im deutsche Web habe ich dazu allerdings nicht viel gefunden, deshalb nur einen Link zu Tanja Preuße, die auch diese Nachricht erhielt.

Damit meine ich nicht Bilder auf einer bestehenden Seite zu optimieren und noch 3 - 8% mehr Besucher rauszuquetschen. Viel mehr interessiert mich, ob man mit einem reinen Bilder-Projekt Affiliate-Provisionen verdienen kann? Gesehen habe ich noch keines, zumindest keines welches in dem von mir angedachten Stil wäre. Wobei ich denke, dass gerade in den jetzigen Zeiten die Universial-Search u.A. die Bildersuche einen nicht zu verachtenden Traffic bringen kann. Gerade bei der Suche nach Produkten tauchen immer wieder Bild-Ergebnisse vor den Shopping-Ergebnisen auf. Vielleicht habe ich auch nach den falschen Keywords gesucht ;-)

Zwei Ideen für Geld mit Bilder-SEO hätte ich im Hinterkopf:

1. Projekt setzt auf Masse und zieht sich Bilder aus Produkt-Feeds und bildet diese mit einem fühlbaren Mehrwert ab. (wird wohl schwer, aber ich hätte da schon eine Idee)

2. Bilderblog mit täglich mindestens einem Bildupload. Im Idelafall zu einem Thema. Du hast Dir gerade die Arbeitszeit überlegt und gedacht: “der spinnt doch”. Dann werfe ich mal meinen Gedankengang in den Ring:
Webcam mit einer Aufnahmefrequenz von alle 60 Minuten solange es hell ist. Ausgerichtet auf ein Gartenbeet, eine Blume oder einen Baum. Irgendetwas das kein Mensch ist und einen sichtbaren Zyklus von mindestens einem Jahr hat. Die Bilder landen mit etwas Programmiergeschick automatisiert im Blog mit dem lustigen Titel: “Das Leben meiner Alpenfeilchen” oder mit “der Orchidee durchs Gartenjahr”. Den Besuchern geben wir ein bisschen Ansporn zu Kommentieren und Keywords für das jeweilige Bild zu vergeben. Es wäre doch gelacht, wenn unser Blüchen, Bäumchen oder was auch immer nicht schnell ein paar Freunde hätte. Logisch braucht es ein bisschen Seeding und ohne Socialmedia (Facebook, G+, Pinterest) wird es schwer werden, aber das funzt da bin ich mir sicher.

Die böse Seite der Bilder-Macht
Jedes Bild hat irgendeinen Urheber - im Idealfall ist man das selbst, oder hat einen Fotografen beauftragt. Auf manchen Affiliate-Seiten habe ich schon “ausgeliehene” Bilder gesehen. Böse, böse, böse. Das kann schnell mal ein paar 100 - 1.000 Euro kosten. Passt da bitte auf und macht keinen Blödsinn!

Nach den vielen Tier-Updates kommt gleich der nächste Streich: Googles Shoppingsuche wird auf sagen wir frech: AdWords umgestellt. Dazu brauch ich nicht mehr viel schreiben, denn das taten schon die anderen Kollegen:

Der Seonaut
Onlinemarketing
Phiilipp the PIP
und die liebe Astrid

Da kann man sich jeztzt vortrefflich streiten, ob das sein muss oder nicht und wie Pip schon schreibt, sortiert es dann wohl einige/viele Affiliates aus, die bisher mit Froogle ihr Geld verdienten - tz tz tz wer macht denn so was :oops:

Viel interessanter ist für micht da die Erinnerung an ein Gespräch mit einem Google-Mitarbeiter vor ca. 4-5 Jahren. Wenn ich mich richtig erinere war das in München, oder Hamburg. Bin mir jetzt nicht sicher. Damals war Froogle/Shoping schon ein Thema und auch, dass es dieses nicht auf ewig kostenfrei geben wird. Im Gespräch kam dann letztlich folgendes heraus:

“Google ist ein kostenloses Angebot. Keiner muss Google nutzen. Solange der User Google nutzt und ihn nicht stört, dass Google dabei Geld verdient, wird Google auch das Angebot nicht ändern.”

Mal überspitzt ausgedrückt: Erst dann, wenn eine kritische Masse an Nutzern andere Suchdienste nutzt, segelt Google zurück. Ist doch auch logisch! Welches Unternehmen ist schon bereit auf Dauer Geld auszugeben, ohne dafür entsprechende Gegenleistung zu sehen.

Am Wochende sind mir beim Arbeiten zwei Möglichkeiten auf-/eingefallen um Expired Domains zu finden, die wohl noch keiner nutzt:

1. Insolvenzregister abgrasen
Auf https://www.insolvenzbekanntmachungen.de/ gibt es eine Suche für allen möglichen Insolvenzkram. Wenn man die Datenbank nun nur nach Insolvenzeröffnungen und Rechtsform z.B. GmbH durchsucht bekommt man eine schicke Auflistung von Unternehmen, die über die Wupper gegangen sind. Nimmt man nun die Liste und wirft die kompletten Firmennamen bei Google ein, dann landet man meist bei der Homepage des Unternehmens, oder was noch schöner ist direkt auf einer Seite die den Firmeneintrag listet und auf die Homepage des Unternehmenas verlinkt, allerdings gibt es die Domain des Unternehmens meist nicht mehr. Herzlichen Glückwunsch: Du hast soeben eine Expired Domain mit eingehden Links gefunden. O.K. muss man zwar händisch machen, dafür lassen die meisten automatischen Domain-Scraper Domains mit “gmbH” und ähnlichen Zeichenketten im de-Markt weg. Kann ich verstehen, riecht ja auch nach rechtlichem Ärger und muss einfach händisch geprüft werden.

2. Newsletter-Bounces abgleichen
Wer einen Newsletter betreibt verschickt diese Emails an Menschen die sich genau für das Thema des Newsletters interessieren. Manche Empfänger betreiben selbst Seiten zum Newsletter-Thema, oder haben den Newsletter im Rahmen ihrer Arbeitstätigkeit aboniert. Nun lässt sich an Hand der Hard-Bounces (Domain nicht erreichbar) leicht prüfen ob die Domain der Email-Adresse noch existent ist, oder expired. Schon haben wir i.d.R. die ideale Domain: themenrelevant, verlinkt und natürlich gewachsen.

Besonders Idee 2 hat es mir angetan. Das bekomme ich locker in unserem Bounce-Handling unter…. ich geh dann mal proggen

Mit Broken-Links meine ich natürlich nicht Links auf der eigenen Seite. Gemeint sind Links von Fremdseiten, die auf nicht mehr vorhandene Ziele auf der eigenen Seite zeigen. Zwar kann man das schön mit 404er-Seiten und/oder Redirects wieder gerade biegen, allerdings muss man schon wissen wie das geht. Interessanter finde ich den Wert dieser broken Links für einen SUMA-Algo. Einmal aufdröseln bitten:

1. Broken-Link auf 404-Seite
Verläuft für Suchmaschinen einfach im Sand.

2. Broken-Link und Redirect
Im schlimmsten Fall zeigt ein ganzer Packen an Links mit unterschiedlichsten, so garnicht zusammenpassenden Anker-Texten auf ein Redirect-Ziel, i.d.R. die Startseite. Schlimmer noch auf automatisch generierte Suchseiten.

3. Broken-Link ohne 404 und Redirect
Jetzt wird es m.E. interessant. Die SUMA kann bei so einem broken Link davon ausgehen, dass es sich dabei um einen tatsächlich freiwillig gesetzen Link handelt. Ein gemietkaufter Link würde ja geändert werden. Bringt aber natürlich nichts, weil das angelinkte Ziel ist ja weg. Zumindest könnten die SUMA-Betreiber aber an solchen Links der Ziel-Domain einen gewissen Glaubwürdigkeitswert zuordnen. Ob das Tante G und so schon machen? Keine Ahnung! Ist mir auch gestern nur so durch den Kopf gegangen, als ich über natürliche Verlinkungen nach dachte.

Freiwillige mit Erfahrungen vor an die Kommentarfunktion!

Panda hin und Panda her. Kaum ein anderes possierliches Tierchen hat den SEO-Markt in letzter Zeit so aufgerollt. Die Rede ist inzwischen von “inhatlicher Qualität” einer Website oder sagen wir mal pauschal deren Qualität für den Nutzer. Die Messbarkeit der Qualität zweifle ich allerdings doch etwas an. Sicherlich kann man Absprungraten messen, wobei man diese eigentlich noch ins Verhältnis zum Seitenzweck und Nutzer setzen muss. Ein Beispiel:

Der Suchende landet bei Wikipedia; findet genau das was er sucht; holt sich die Information und kehrt wieder zur Google-Suche zurück, da er nun das nächste Thema sucht. Zwar erfolgt der Bounce recht schnell, aber auch nur weil der Nutzer genau das gefunden hat wonach er suchte.

Noch eines:
Wohl die meisten User haben Google als Startseite eingerichtet, d.h. jedes neue Fenster und jeder neue Tab rufen Google auf und sind damit ein Bounce. Kann wohl auch nicht sein.

Ad Hoc würden mit noch so 10 + X Scenarien einfallen, die zwar für den User idealst laufen aber für Google ein Bounce sind. Was bleibt Google anderes übrig als den Seiteninhalt zu analysien. Zwei Methoden stechen heraus:

DC Erkennung
Google ist was DC angeht sehr gut, allerdings wurde Google inzwischen auch von der Masse eingeholt. Es gibt wohl nahezu keine gebräuchliche Sprache mehr in der DC nicht schon alleine durch die Vielfalt der Nutzer entsteht. Bleiben wir bei Deutsch und Englisch. Die Wahrscheinlichkeit, dass zwei oder mehr Menschen Texte schreiben die sich gleichen steigt mit jedem Dokument im Netz. So scheint es zumindest mir, dass Google hier den Gashahn etwas zurückgenommen hat.

inhaltliche Analyse des Texte
In Zeiten von LSO und Co (bitte diesen Reim auf der Zunge zergehen lassen), hört es sich doch erstmal sinnvoll an den Inhalt bzw. die Brauchbarkeit eines Textes verstehen zu wollen. Nur leider ist das mathematisch nicht so einfach. Das ein oder andere Patent wurde auch schon geschrieben, aber anyway: wie sieht es denn jetzt aus? Gehen wir mal den Ansatz, dass man gerne das nutzt, was man glaubt schon zu können. Im Fall Google dürfte es sich dabei um den Übersetzer Translate handeln. Kaum ein anderes Google-Tool beschäftigt sich so tief mit Texten. Daraus ziehe ich den Schluß: je besser Translate um so eher versteht Google die Qualität eines Textes zu ermitteln. Dann machen wir doch mal eine einfache Übung und übersetzen:

Das Abendessen wurde vom Ober pünktlichst am Tisch serviert. Leider stieß er dabei den Suppenteller um und verbrühte sich den Knöchel.

ins Englische übersetzt von Google:

Dinner was served punctually at the top of the table. Unfortunately, he came across to the soup plate and scalded her ankle.

und zurück ins Deutsche:

Das Abendessen war pünktlich an der Spitze des Tisches serviert. Leider stieß er auf den Suppenteller und verbrüht sich den Knöchel.

Google hat uns beim Übersetzen gleich mal ein Subjekt geklaut und die Sache mit den Präpositionen bedarf auch noch etwas Übung.

FAZIT:
Es wird wohl noch viele Jahre brauchen bis eine Maschine in der Lage ist halbwegs den Sinn und Inhalt eines Textes zu verstehen. Genau so lustig wie die Übersetzung ist, genau so wird auch das Verständnis des Inhaltes sein.

Weil ich gerade ein bisschen mit PDFs und PHP rumspiele kam mir da eine Idee. Einige Shops, gerade im Technikbereich, bieten s.g. Datenblätter als PDF-Downloads zu Ihren Artikeln an. Zwar sehe ich als einzigen Sinn darin, dass die Artikel damit leichter ausdruckbar sind, aber wer’s braucht.

Nun wäre ich nicht ich, wenn ich mir nicht Gedanken machen würde, was man damit anstellen kann. :-D Im Prinzip ist so ein PDF ja DC, muss man klar sagen, einige schlauere Shops schließen deshalb .pdf in der robot.txt für Google aus. Und nun kommt der Haken an dem ich einhängen würde, ebenso wie die Suchphrasen länger werden, werden Sonderformate der Google-Suche häufiger genutzt, darunter auch filetype oder auch einfach Suchen nach “Anleitung $produkt pdf”. Nehmen wir mal an, wir verpacken komplette Datenfeeds einfach in einzelne PDF-Dokumente, sprich 1 Artikel = 1 PDF, das ganze noch schön mit Keywords versehen, ich denke da so an: “Datenblatt”, “Bedienungsanleitung”, usw. also alles wo man als Suchtreffer ein PDF erwarten würde. Links aus PDF ist kein Problem, Tracking somit auch nicht.

So müsste man doch den ein oder anderen PDF-Besucher bekommen, oder?


PP-Blogsberg läuft unter Wordpress