Anbieter: Roland Antiquariat UG haftungsbeschränkt, Weinheim, Deutschland
Softcover. 291 S. Guter Zustand. Die Leseseiten sind sauber und ohne Markierungen. Ausgeschiedenes Bibliotheksexemplar mit entsprechender Kennzeichnung. Leichte Lager- und Gebrauchsspuren. Ansonsten ordentliches Exemplar. 9783519022473 Sprache: Deutsch Gewicht in Gramm: 1000.
Anbieter: Ammareal, Morangis, Frankreich
Softcover. Zustand: Bon. Ancien livre de bibliothèque. Edition 1995. Ammareal reverse jusqu'à 15% du prix net de cet article à des organisations caritatives. ENGLISH DESCRIPTION Book Condition: Used, Good. Former library book. Edition 1995. Ammareal gives back up to 15% of this item's net price to charity organizations.
Anbieter: alt-saarbrücker antiquariat g.w.melling, Saarbrücken, Deutschland
Broschiert. Zustand: Gut. oktav farb. orig. brosch. gutes exemplar. 291 seiten, reihe : leitfäden und monographien der informatik; mit zahlreichen abbildungen, kleiner fleck auf unterem schnitt, sonst gut /D1121.
Sprache: Deutsch
Verlag: Vieweg+Teubner Verlag 06.1992., 1992
ISBN 10: 3519022478 ISBN 13: 9783519022473
Anbieter: Bücherbazaar, Eggenstein, Deutschland
paperback. Zustand: Sehr gut. Auflage: 1991. 296 Seiten In durchsichtige Folie eingeschlagen. Mit leichten altersbedingten Lager- und Gebrauchsspuren. U-w-Ga-31 Sprache: Deutsch Gewicht in Gramm: 472.
8° kart. Zustand: Sehr gut. 2., überarb. und erw. Aufl. 462 S. : Ill., graph. Darst. ; 23 cm Ausgetragenes Bibliotheksexemplar, Ecken angerieben, in sehr gutem Zustand MIG-18-06C Sprache: Deutsch Gewicht in Gramm: 797.
Anbieter: Versandantiquariat Manuel Weiner, Friedenweiler, Deutschland
Stuttgart : Teubner, 1991, 291 Seiten, graph. Darst. ; 23 cm, kart. ; (Leitfäden und Monographien der Informatik) ; guter Zustand.
Sprache: Deutsch
Verlag: BGTeubner Verlag Stuttgart,, 1991
ISBN 10: 3519022478 ISBN 13: 9783519022473
Anbieter: Bernhard Kiewel Rare Books, Grünberg, Deutschland
23 x 16. 291 Seiten. Mit zahlreichen Abbildungen. OKart. Ordnungsgemäß aus einer Universitäts-Bibliothek ausgesondert (Stempel, Rückenschild). Einbandecken berieben, innen noch gut erhalten. Sprache: Deutsch Gewicht in Gramm: 450.
Softcover/Paperback. 291 S. gutes Exemplar // Neuronales Netz, Informatik, Datenverarbeitung, Biologie N03 9783519022473 *.* Sprache: Deutsch Gewicht in Gramm: 550.
Anbieter: Versandantiquariat Felix Mücke, Grasellenbach - Hammelbach, Deutschland
Taschenbuch. Zustand: Befriedigend. 293 Seiten; Artikel stammt aus Nichtraucherhaushalt! M17076 Sprache: Deutsch Gewicht in Gramm: 476.
Anbieter: AHA-BUCH GmbH, Einbeck, Deutschland
Taschenbuch. Zustand: Neu. Druck auf Anfrage Neuware - Printed after ordering - Vierzig Jahre, nachdem John von Neumann sein Konzept eines rechnenden, programmgesteuerten Automaten entworfen hat, setzt sich nun in der Informatik die Erkenntnis durch, daß sequentiell arbeitende Rechner für manche Probleme zu langsam arbeiten. Mit vielen, parallel arbeitenden Prozessoren versucht man heutzutage in Multiprozessoranlagen, den 'von Neumann-Flaschenhals' zu umgehen. Dabei ergeben sich eine Menge neuer Probleme: Die Aktivität der Prozessoren muß synchronisiert werden, die Daten müssen effektiv verteilt werden und 'Knoten' im Datenfluß (hot spots) zwischen den Prozessoren und dem Speicher müssen vermieden werden. Dazu werden Mechanismen benötigt, um auftretende Defekte in ihren Auswirkungen zu erfassen und zu kompensieren, das Gesamtsystem zu rekonfigurieren und alle Systemdaten zu aktualisieren. Bedenken wir noch zusätzlich die Schwierigkeiten, die mit einer parallelen Programmierung der eigentlichen Probleme verbunden sind, so können wir uns nur wundem, wieso wir Menschen 'im Handumdrehen' und 'ganz natürlich' Leistungen erbringen können, die mit den heutigen Rechnern bisher nicht nachvollziehbar waren. Betrachten wir beispielsweise die Probleme der 'künstlichen Intelligenz', besser 'wissensbasierte Datenverarbeitung' genannt, so hinken die heutigen Systeme zum Sehen. Hören und Bewegen hoffnungslos der menschlichen Realität hinterher. Weder in der Bildverarbeitung und -erkennung, noch in der Spracherkennung oder in der Robotersteuerung reichen die Systeme in Punkto Schnelligkeit (real-time), Effektivität und Flexibilität (Lernen) oder Fehlertoleranz an die menschlichen Leistungen heran.
Zustand: good. Befriedigend/Good: Durchschnittlich erhaltenes Buch bzw. Schutzumschlag mit Gebrauchsspuren, aber vollständigen Seiten. / Describes the average WORN book or dust jacket that has all the pages present.
EUR 8,39
Anzahl: 1 verfügbar
In den WarenkorbZustand: Hervorragend. Zustand: Hervorragend | Seiten: 296 | Sprache: Deutsch | Produktart: Bücher | Vierzig Jahre, nachdem John von Neumann sein Konzept eines rechnenden, programmgesteuerten Automaten entworfen hat, setzt sich nun in der Informatik die Erkenntnis durch, daß sequentiell arbeitende Rechner für manche Probleme zu langsam arbeiten. Mit vielen, parallel arbeitenden Prozessoren versucht man heutzutage in Multiprozessoranlagen, den "von Neumann-Flaschenhals" zu umgehen. Dabei ergeben sich eine Menge neuer Probleme: Die Aktivität der Prozessoren muß synchronisiert werden, die Daten müssen effektiv verteilt werden und "Knoten" im Datenfluß (hot spots) zwischen den Prozessoren und dem Speicher müssen vermieden werden. Dazu werden Mechanismen benötigt, um auftretende Defekte in ihren Auswirkungen zu erfassen und zu kompensieren, das Gesamtsystem zu rekonfigurieren und alle Systemdaten zu aktualisieren. Bedenken wir noch zusätzlich die Schwierigkeiten, die mit einer parallelen Programmierung der eigentlichen Probleme verbunden sind, so können wir uns nur wundem, wieso wir Menschen "im Handumdrehen" und "ganz natürlich" Leistungen erbringen können, die mit den heutigen Rechnern bisher nicht nachvollziehbar waren. Betrachten wir beispielsweise die Probleme der "künstlichen Intelligenz", besser "wissensbasierte Datenverarbeitung" genannt, so hinken die heutigen Systeme zum Sehen. Hören und Bewegen hoffnungslos der menschlichen Realität hinterher. Weder in der Bildverarbeitung und -erkennung, noch in der Spracherkennung oder in der Robotersteuerung reichen die Systeme in Punkto Schnelligkeit (real-time), Effektivität und Flexibilität (Lernen) oder Fehlertoleranz an die menschlichen Leistungen heran.
EUR 8,39
Anzahl: 1 verfügbar
In den WarenkorbZustand: Sehr gut. Zustand: Sehr gut | Seiten: 296 | Sprache: Deutsch | Produktart: Bücher | Vierzig Jahre, nachdem John von Neumann sein Konzept eines rechnenden, programmgesteuerten Automaten entworfen hat, setzt sich nun in der Informatik die Erkenntnis durch, daß sequentiell arbeitende Rechner für manche Probleme zu langsam arbeiten. Mit vielen, parallel arbeitenden Prozessoren versucht man heutzutage in Multiprozessoranlagen, den "von Neumann-Flaschenhals" zu umgehen. Dabei ergeben sich eine Menge neuer Probleme: Die Aktivität der Prozessoren muß synchronisiert werden, die Daten müssen effektiv verteilt werden und "Knoten" im Datenfluß (hot spots) zwischen den Prozessoren und dem Speicher müssen vermieden werden. Dazu werden Mechanismen benötigt, um auftretende Defekte in ihren Auswirkungen zu erfassen und zu kompensieren, das Gesamtsystem zu rekonfigurieren und alle Systemdaten zu aktualisieren. Bedenken wir noch zusätzlich die Schwierigkeiten, die mit einer parallelen Programmierung der eigentlichen Probleme verbunden sind, so können wir uns nur wundem, wieso wir Menschen "im Handumdrehen" und "ganz natürlich" Leistungen erbringen können, die mit den heutigen Rechnern bisher nicht nachvollziehbar waren. Betrachten wir beispielsweise die Probleme der "künstlichen Intelligenz", besser "wissensbasierte Datenverarbeitung" genannt, so hinken die heutigen Systeme zum Sehen. Hören und Bewegen hoffnungslos der menschlichen Realität hinterher. Weder in der Bildverarbeitung und -erkennung, noch in der Spracherkennung oder in der Robotersteuerung reichen die Systeme in Punkto Schnelligkeit (real-time), Effektivität und Flexibilität (Lernen) oder Fehlertoleranz an die menschlichen Leistungen heran.
EUR 8,39
Anzahl: 1 verfügbar
In den WarenkorbZustand: Sehr gut. Zustand: Sehr gut | Seiten: 296 | Sprache: Deutsch | Produktart: Bücher | Vierzig Jahre, nachdem John von Neumann sein Konzept eines rechnenden, programmgesteuerten Automaten entworfen hat, setzt sich nun in der Informatik die Erkenntnis durch, daß sequentiell arbeitende Rechner für manche Probleme zu langsam arbeiten. Mit vielen, parallel arbeitenden Prozessoren versucht man heutzutage in Multiprozessoranlagen, den "von Neumann-Flaschenhals" zu umgehen. Dabei ergeben sich eine Menge neuer Probleme: Die Aktivität der Prozessoren muß synchronisiert werden, die Daten müssen effektiv verteilt werden und "Knoten" im Datenfluß (hot spots) zwischen den Prozessoren und dem Speicher müssen vermieden werden. Dazu werden Mechanismen benötigt, um auftretende Defekte in ihren Auswirkungen zu erfassen und zu kompensieren, das Gesamtsystem zu rekonfigurieren und alle Systemdaten zu aktualisieren. Bedenken wir noch zusätzlich die Schwierigkeiten, die mit einer parallelen Programmierung der eigentlichen Probleme verbunden sind, so können wir uns nur wundem, wieso wir Menschen "im Handumdrehen" und "ganz natürlich" Leistungen erbringen können, die mit den heutigen Rechnern bisher nicht nachvollziehbar waren. Betrachten wir beispielsweise die Probleme der "künstlichen Intelligenz", besser "wissensbasierte Datenverarbeitung" genannt, so hinken die heutigen Systeme zum Sehen. Hören und Bewegen hoffnungslos der menschlichen Realität hinterher. Weder in der Bildverarbeitung und -erkennung, noch in der Spracherkennung oder in der Robotersteuerung reichen die Systeme in Punkto Schnelligkeit (real-time), Effektivität und Flexibilität (Lernen) oder Fehlertoleranz an die menschlichen Leistungen heran.