Die robots.txt zur Vermeidung von Duplicate Content

Duplicate Content ist ein Schreckgespenst, das immer wieder mal durch die digitalen Lande zieht. Doch was ist das überhaupt? Duplicate Content hat auf jeden Fall etwas mit sogenannten doppelten Inhalten zu tun. Diese entstehen beispielsweise, wenn Webmaster faul sind, und einfach von anderen Webseiten Inhalte kopieren und auf ihrem eigenen Webauftritt präsentieren.

Suchmaschinenoptimierung – ein Zukunftsmarkt? Oder: was ein Seo so mitbringen muss

Wer letztes Wochenende auch in der analogen Welt ein wenig Zeit zum Lesen fand, der konnte in der Süddeutschen Zeitung (Nr. 181 / 2009) einen Beitrag zum Thema Suchmaschinenoptimierung (Seo) finden. Suchmaschinen-Experten sind anscheinend Mangelware, momentan seien etwa 1500 Stellen bei eingschlägigen Firmen unbesetzt. Doch woran liegt das? Der Bereich Suchmaschinenmarketing und -optimierung ist am …