Statistik |
Beiträge: 144.534 (Täglich: 19,19 )
Themen: 16.701
Mitglieder: 13.209
Neuestes Mitglied: zitronentee.
Ausl. d. letzten Minute: 724%
Ausl. d. letzten 5 Minuten: 932%
Ausl. d. letzten 15 Minuten: 1033%
Aktulle Uhrzeit: 02:47
Freier Webspace: 4.04 TB
PHP-Version: 7.4.33
|
|
|
|
|
SUMA Optimierung |
|
Wie kann man sein Forum am besten für die SUMA’s Optimieren das man zum einen immer die netten Bots zu besuch hat und zum anderen auch dementsprechend gelistet wird?
Bezüglich Traffic brauch ich mir keine Gedanken machen da ich da ein unbegrenztes Kontingent habe und bezüglich der Performance auch nicht da der Server auf Sparflamme läuft (leider).
|
|
18.01.2008 07:41 |
|
|
|
Moin knuddelchen27,
erstmal besten dank für deine Antwort.
Die TXT wurde mal erstellt, nun müssen nur die Spider das auch befolgen.
Eine googel konforme XML wurde auch bereits erstellt und bei googel natürlich eingetragen.
Dachte nur das man noch einiges mehr machen kann denn fakt ist ja umso besser man platziert ist umso schneller hat man ein volles Forum
Und ich sehe hier zum Beispiel immer das um die 80 Bots konstant am Spidern sind, bei mir kommt aktuell nur mal googel zu besuch
|
|
18.01.2008 10:01 |
|
|
|
|
Zitat: Original von redtiger
Dachte nur das man noch einiges mehr machen kann denn fakt ist ja umso besser man platziert ist umso schneller hat man ein volles Forum
|
|
|
würd ich nich unbedingt sagen
man muss ja auch ein thema haben, was leute anspricht
ich hatte letztes jahr über 1000 bots im forum... neue user gebracht, bzw. irgend ne bessere platzierung gebracht hat's mir jedenfalls nich
__________________
|
|
18.01.2008 10:22 |
|
|
|
|
Zitat: Original von knuddelchen27
huhu
am besten als erstes ne robots.txt erstellen nach folgendem beispiel
code: |
1:
2:
3:
4:
5:
6:
7:
8:
9:
10:
11:
12:
13:
14:
15:
16:
|
User-agent: *
Disallow: /acp
Disallow: /templates
Disallow: /attachments
Disallow: /bilder
Disallow: /images
Disallow: /fpdf
Disallow: /galerie
Disallow: /grafiken
Disallow: /hm-portal
Disallow: /jgs_treffen_bilder
Disallow: /lexi_attachments
Disallow: /userpic
Disallow: /vglizenz
Disallow: /includes
Disallow: /content |
|
dieses Disallow bedeudet das suchmaschinen diese verzeichnisse nicht durchsuchen dürfen
manche suchmaschinen verlangen diese robots.txt
und vorallem deer suchmaschine futter geben, sprich paar foren für gäste leserechte geben
.
ich kann immer nachguggen nach welchen suchbegriffen meine seite gefunden wurde
(siehe screenshot)
du kannst aber nicht beeeinflussen wenn der spider von ner suchmaschine dich besuchen kommt
hatte knappe 2 monate gedauert bei mir
|
|
|
Hallo Knuddelchen,
was hast Du denn da für eine Statistik ?
__________________
|
|
18.01.2008 11:20 |
|
|
|
keuch.
__________________
|
|
18.01.2008 13:38 |
|
|
|
Webseite erscheint nicht mehr bei Google |
|
Liegt das in den neuen Datenschutzverordnungen? Auf jeden Fall wird meine Webseite unter dem Hauptbegriff nicht mehr gefunden? Ich habe sie schon seit ca. 13 Jahren und sie stand mal auf Seite 1 oder auch 2 aber nun ist sie gar nicht mehr auffindbar.
Weiß jemand Rat?
__________________ Gruß, Sybille
|
|
26.02.2019 11:04 |
|
|
bam
Routinier
Dabei seit: 25.03.2018
Beiträge: 479
0 Filebase-Einträge
wBB-Version: wBBLite
Bewertung:
Level: 37 [?]
Erfahrungspunkte: 1.051.633
Nächster Level: 1.209.937
|
|
Betreibst du die Seite auch unter https und nicht mehr http?
Es klingt für mich danach und Google bestraft dies hart.
Aber nicht nur Google, sondern heutzutage sogar schon Browser.
Wie lautet denn die Url zu deinem Forum?
Eine andere Möglichkeit wäre noch, dass Google deine Seite gesperrt hat, weil sich dort regelwidrige Inhalte oder Bilder befinden.
Ich hatte einmal auf meiner Lieblingsinsel die Homepage eines befreundeten Lokalbetreibers repariert.
Dabei stieß ich auf Schadecode direkt in html-Dateien.
Andre war mir so dankbar, sodass ich 2 Tage lang bei ihm kostenlos trank und aß.
Und am dritten Tag meinte er, seine Seite wird über Google nicht mehr gefunden.
Wtf?
Dann bin ich dem auch noch nachgegangen.
Google hatte die Seite gesperrt und wir mussten extra eine Entsperrung beanspruchen/beantragen.
War für mich damals aber geil zu erfahren, dass Google infizierte Seiten sofort raus schmeißt.
Das war dann auch nach 48 Stunden erledigt und wir hatten den nächsten Rausch.
Für ihn als Lokalbetreiber war dies damals aber nicht mehr lustig.
Leider fand ich nicht heraus, woher der Schadcode stammte.
Ich vermutete eine Grafik und voila.
Und plötzlich fühlte ich mich auch schon wie in einem Krimi.
bam
__________________ Bedenke:
Ein leichter Klapps auf den Hinterkopf steigert das Denkvermögen.
Geschüttelt, nicht gerührt!
|
|
27.02.2019 23:28 |
|
|
Terror
vBulletin-User
Dabei seit: 24.08.2005
Beiträge: 695
0 Filebase-Einträge
Alter: 49 Jahre
Herkunft: 127.0.0.1 Wo bist du gehostet?: USA-Dateiload
Bewertung:
Level: 45 [?]
Erfahrungspunkte: 4.719.977
Nächster Level: 5.107.448
|
|
es ist nicht nur ssl/https, es sind insgesamt über 200 faktoren, manche wichtiger, manche weniger.
sehr wichtig ist: MOBILE FIRST!
mit einer webseite oder forum ohne vernünftiges responsives layout hast du heutzutage seo technisch voll verschissen.
|
|
01.03.2019 10:04 |
|
|
|
|
|
|