Navigation Im Internet |
|||||||||
Home Neues TestSeite DorfTratsch Suchen Teilnehmer Projekte GartenPlan DorfWiki Bildung+Begegnung DorfErneuerung Dörfer NeueArbeit VideoBridge VillageInnovationTalk AlleOrdner AlleSeiten Hilfe Einstellungen SeiteÄndern |
Teil des InternetHandbuch
Die Anwendung von Suchmaschinen ist eine kleine Kunst für sich. Sind die Begriffe in der Anfrage zu allgemein, werden viele tausende Webseiten zum Stichwort als Ergebnis gebracht; ist die Anfrage zu eng gefasst, wird eventuell nichts gefunden. Jede Suchmaschine bietet daher die Möglichkeit, Suchbegriffe logisch miteinander zu verknüpfen, dass die Quote an wirklichen Treffern aussagefähige Ergebnisse bringt. Anleitung zur Strukturierung der Eingabe findet man auf den jeweiligen Seiten der Suchmaschine. In der Praxis hat sich auch bewährte auf einem Blatt Papier die Stichworte vorher zu überlegen und festzuhalten – und dabei auch an Synonymbegriffe zu denken. Damit verlieren Sie sich nicht allzusehr beim anschließenden Surfen!
Suchmaschinen am eigenen PC Zusätzlich zu den Suchmaschinen im Netz gibt es solche, die man sich auf den eigenen Computer herunterladen kann. Solche Programme nennt man "Virtual Agents", "Virtual Clients" oder "intelligente Agenten". Sie sind quasi Diener Ihres Herren und durchforsten für Ihn nach seinen Überlegungen das Internet. Für Interessierte Leser ein Buchtitel: "Internet Agents: siders, wanderers, brokers, and Bot´s", englisch, New Riders Publishing, Indiana, von Fah-Chun Cheong und die Homepage http://www.robotstxt.org/wc/robots.html The Web Robots Pages Web Robots are programs that traverse the Web automatically. Some people call them Web Wanderers, Crawlers, or Spiders.
Unter http://www.robotstxt.org/wc/active/html/index.html finden Sie 286 Eintragungen Über Robots und ihre beabsichtigten Aufgabenfelder wie Wartung, Indexierung, etc. Ein bemerkenswerter Ronot ist http://www.robotstxt.org/wc/active/html/Collective.html Collective is a highly configurable program designed to interrogate online search engines and online databases, it will ignore web pages that lie about there content, and dead url's, it can be super strict, it searches each web page it finds for your search terms to ensure those terms are present, any positive urls are added to a html file for your to view at any time even before the program has finished. Collective can wonder the web for days if required. In Verbindung mit fremdsprachigen Hompages gewinnen die Robots noch eine zusätzlich Aufgabe und Bedeutung. Ebenso können damit Neueintragungen zu einem bestimmten Thema gefunden werden. Vermutlich ist aber der Einsatz derartig komplexer Software nur sinnvoll in einem spezifischen Projekt.
| ||||||||