Tödlicher Tesla-Unfall: Autopilot hat Sekunden vor Crash beschleunigt

Elon Musk, der Chef des Elektroautobauers Tesla, hat zuletzt seinen Tonfall gegenüber Medien verschärft und diesen vorgeworfen, dem Unternehmen bewusst schaden zu wollen. Ausgangspunkt sind die Berichte zu Unfällen, an denen der Autopilot beteiligt ... mehr... Ki, tesla, Elon Musk, Tesla Motors, Spacex, Tesla Energy Bildquelle: Flickr Künstliche Intelligenz, Ki, tesla, Elon Musk, Tesla Motors, Spacex, Tesla Energy Künstliche Intelligenz, Ki, tesla, Elon Musk, Tesla Motors, Spacex, Tesla Energy Flickr

Diese Nachricht vollständig anzeigen.

Jetzt einen Kommentar schreiben
 
http://www.directupload.net/file/d/5112/3fc5ffv7_jpg.htm

kann man Werbung noch unpassender schalten? (meine die Canon Werbung)

Langsam sollte Musk wirklich darüber nachdenken sein System umzubenennen um weitere Personen vor sich selbst zu schützen. Viele werden und wollen es nicht verstehen und es ist deshalb unausweichlich dass weitere Tote die folge sein werden
 
@ExusAnimus: Darwin? Warum sollte man ständig alle vor sich selbst beschützen? Das Problem sehe ich eigentlich nur darin, dass die auch andere gefährden.
 
@-=FFKangoroo=-: Naja Menschen schützen ist schon sinnvoll, nur wird das meiner Meinung nach mit einer Umbenennung absolut nicht erreicht. Man bekommt es unabhängig vom Marketing Namen mehrfach eindeutig gesagt und angezeigt. Damit ist es völlig egal wie die Option bei der Bestellung mal hieß. Bei allen bisherigen größeren Unfällen war eindeutig dass der Fahrer Bescheid wusste und nicht dachte er kann wegen "Autopilot" komplett abwesend sein. Gerade der hier hatte doch Anderen schon berichtet dass das System an der Stelle manchmal Probleme hat. Auch der erste Verstorbene hatte sogar über Tesla geblogt, also auch genau gewusst was es ist und was nicht.
Ich kann Null verstehen wie man, vor allem auf einer Tech Seite, die Schuld immer wieder an dieser einen Bezeichnung suchen kann obwohl noch kein einziger Teslafahrer gesagt hat er hätte nicht gewusst dass es kein Level 5 ist.
 
@ExusAnimus: Wie bereits weiter unten geschrieben: Sorry, wird nicht wieder vorkommen, haben da jetzt eine Lösung umgesetzt, damit sich das nicht wiederholen kann.
 
@witek: die Werbung auf den Unfallbildern ist weg, die Lachgummi Werbung ist aber (wie unten bemängelt) noch da.

Trotzdem finde ich es lobenswert dass ihr Kritik annimmt und sofort agiert! :)
 
@ExusAnimus: Meinst du, dass Lachgummi an anderer Stelle auftaucht? Dazu kann ich jetzt spontan nichts sagen, weil ich persönlich nicht mit dem Vermarkter in Kontakt stehe (leite das aber auch weiter). Allerdings muss ich sagen, dass ich das an einer anderen Stelle nicht ganz so schlimm finde, weil sich das optisch doch abgrenzt. Aber wir gucken mal, ob man da vielleicht auch noch was machen kann - glücklicherweise sind solche Grenzfälle aber bei uns trotzdem eher die Ausnahme.
 
@witek: Bilder sagen mehr als tausend Worte ^^

http://www.directupload.net/file/d/5112/yudp5y9d_jpg.htm
 
@ExusAnimus: Ja, da hast du recht. Danke, hab das weitergeleitet.
 
Interessant, demnach konnte das NTSB all diese Daten aus dem Bordcomputer holen, aber nicht die Kondition, die dazu führte, dass das Auto beschleunigte? Denn irgendwas muss das Beschleunigen ja ausgelöst haben. Oder wird diese konkrete Information beabsichtigt zurückgehalten? Sehr suspekt.
 
@Islander: Muss es? Und was ist daran "suspekt"? Vielleicht war es einfach "nur" ein Bug bzw. ist das System einfach noch nicht gut genug, dass es auf die Straße darf.
Immer diese Verschwörungstheorien. Zudem ist das meines Wissens nach nur ein Zwischenbericht.
 
@Islander: Wie sollte das denn aufgezeichnet sein? Hände am Lenkrad oder nicht klar verfügbare Inforationen durch Sensoren. Blinker gesetzt oder nicht, auch aufgezeichnet.

Aber wieso sollte im Protokoll stehen warum ein Fahrzeug beschleunigt? Es steht halt drin das es beschleunigt hat, aber das warum? Das würde ja auch voraussetzen dass das Hinderniss nicht nur erkannt sondern auch eindeutig identifiziert wird um eben halt rein schreiben zu können beschleunigung weil Stau vorbei oder so.

Das funktioniert auf jeden fall nicht so richtig.
 
@Tomarr: So sieht's aus! In dem Protokoll sollten sämtliche, den Autopilot betreffenden Ereignisse zeitlich aufgelistet stehen. Und ich wette, das tun sie auch. Dazu gehört dann auch der Trigger für das Beschleunigen. So einen wichtigen Punkt überspringe ich bei einer schnellen Untersuchung doch nicht, wenn ich mir schon die Mühe mache, die anderen Daten rauszufischen.
 
@Islander: Aber was für ein Trigger sollte eine Beschleunigung auslösen. Geschwindigkeit erlaubt plus freie Bahn. Mehr gibt es da nicht. Sämtliche andere Ereignisse die mir da jetzt spontan einfallen dürften keine Beschleunigung verursachen. Wenn also irgendetwas erkannt wird was dann im Protokoll aufgeführt werden würde müsste eher eine Bremsung verursachen.
 
@Tomarr: So seh ich das auch, das Fahrzeug hat vermutlich freie Bahn erkannt und daher auf die erlaubte Geschwindigkeit beschleunigt. Das ergibt sogar insofern Sinn, da die Betonwand als stehendes Hindernis ohnehin rausgerechnet wird und gleichzeitig sich bewegende Hindernisse verdeckt.
 
@aecro: Ich versteh ehrlich gesagt nicht ganz, warum stehende Hindernisse ignoriert werden. Die sind ja mit abstand am einfachsten zu erkennen.Es gibt keinen einzigen grund, vollgas weiter zu fahren, wenn etwas vorne im Weg steht. Egal was es ist.
 
@aecro: & @ Tomarr:
OMG mal Kopf an meine besserwissenden Freunde der Diskussion.
Sensor am Gaspedal oder derjenige wo man erkennt das auch wirklich der Autopilot die beschleunigung vorgenommen hat. Logfile schauen warum wurde welches script activiert der die KI zu diesem handeln veranlasste. Den dies sind ein muss zur minimalen Sicherheit bei Autopilottechnik & Auswertung die verbaut sind. Aber das hier Infos zurückgehalten werden und das natürlich um sich Rechtliche streitereien zu sparen ist hier super zu erkennen. hat ja mit Verschwörung nichts zu tun.

Aber sich verrückt machen weil er schön zeitung gelesen hatt wird halt übersehen und jeder stürtzt sich auf so ein thema

Andererseits würde dieses Auto auch gar keine Zulassung in unserem verschärften TüV-Landia der Strenge und Ordnung bekommen.

Professionell genug das auch ihr mal mit Weisheit erleuschtet wädet ;)
 
@HaleV: Ich glaube du verstehst meinen Einwand nicht so ganz.

Wenn was anderes bei der Beschleunigung steht als erlaubt plus freie Bahn würde das Ganze gar keinen Sinn ergeben. Dann wäre das ganze System absurdum.

Mal abgesehen davon das ich nicht verstehe warum stehende Hindernisse nicht erkannt werden, was ja irgendwo mal geschrieben wurde dass das sogar im Handbuch steht, was wiederum jedes Stauende zur Unfallgefahr macht.

Irgendwo beißt sich das mit meiner Logik.

Dazu kommt nach dass die letzte Warnung 15 Minuten vor dem Unfall war, dass der Fahrer gerade mal 6 Sekunden vor dem Unfall die Hände vom Lenkrad genommen hat, aus welchen Gründen auch immer. Also er war eigentlich schon aufmerksam, hat sich aber auch auf das System ein wenig verlassen. Denn wozu brauche ich einen Autopiloten wenn ich doch komplett selber fahren muss? Verstehe mich nicht falsch, klar muss der Autofahrer jederzeit bereit sein. Aber hier sieht es fast so aus als wenn er kurz die Hände weggenommen hat und das Fahrzeug dann verrissen hat oder so.
 
@Tomarr: Ja, genau diese Information im Protokoll wäre wichtig, welche Sensoren alle grünes Licht gemeldet haben für die Beschleunigung. Dann wüsste man genau, welche Erkennung / welcher Sensor falsch lag.
 
@mh0001: Diese Senorik gibt es wird nur in den Welterschreckenden news ja nicht erwähnt um mehr Diskussionen und Verschwörungen zu erzeugen. Sonst wäre die wortwahl in solchen Artikeln auch viel Präziser und Schuldverteilender.
 
@Tomarr: Ja schön das deine Logik hier nur greift wenn Infos auch mal Richtig und in aller Fülle weitergegeben werden sry ansonsten hast du nur Logische schlüsse auf Behauptungen und Vermutungen. Mal mehr hinterfragen wie jeden schmarm zu glauben was man liest =D.
Selber Artikel anderst ausgelegt ;)
https://www.derstandard.de/story/2000077818339/tesla-zu-toedlichem-unfall-fahrer-war-selbst-schuld

Da schreibt ja jeder Reporter was er will und Siehe da Meinungen entstehen anstatt Wissen.

Denn die verbauten Sensoren zeichnen auf und Speichern die in die Ausgelesene Logfile. Logfiles speichern dies und es ist alles nachvollziehbar sovern kein Ausfall anderer geschahen. Und das dieses Produkt nicht für Ewigkeiten zu 100% funktioniert sollte jedem Käufer klar sein.

Allerdings sind diese Systeme ab der ersten Generation Teslas zur Analyse und Verbesserungszwecken verbaut worden, oder woher nimmt diese Behörde ihre Infos die sie nicht veröffentlichen her????

Hier werden nur halbe Infos ausgegeben. Was ist wenn Sensoren am ende aufgaben und aufzeichnungen dieser ab den letzten Sekunden vor aufprall nicht mehr eindeutig sind oder gar komplett fehlen ?? Logfile wirft ja für diese Behörde "NTSB" Fragen auf, was wenn er nur aufnahm das eine Beschleunigung gescha ohne wirkliche angabe warum diese getätigt wird oder von wem genau. Ist ja auch nur erst mal eine Behauptung der Behörde denn Beweise liegen hier ja keine vor die uns gezeigt werden. Und diese anscheinend nicht so sehr Fachmänisch sind wenn da Fragen entstehen für Prüfer =D einer Behörde.

Hier obliegt es am Fahrer dür den umgang mit dieser Technik ein Auge mehr zu entwickeln! Weil alle regen sich über einen Assistenten auf der auf Sensoren angewiesen ist die wie jeder weis meist das erste am Auto sind was verreckt oder Spinnt.
Wobei der Fehler der Fahrer ist. Wenn ein Dummer einen Tessla kauft und darin stirbt ist er selber schuld er hätte es wissen müssen das Technik auch mal Spinnen kann und diese übernimmt zu viel wenn ich ihr leichtsinnig alles in die Hände lege. Ansonsten müssen wir Autopilotenführerscheine einführen damit auch ein Assistenzbetriebener fahrer nicht schindluder betreibt bei der fahrt.
Wie der eine Herr der sich über unfall beschwerte mit seinem Tesla als er gemütlich ein Schläfchen machte.

https://www.produktion.de/video/brite-zweckentfremdet-tesla-als-schlafwagen-295.html
oder
https://winfuture.de/news,102990.html
Mein Baseballschläger ist gedacht Bälle zu schlagen passt aber auch gut in Menschliche gesichter du verstehst ;)

PS:
Der Fahrer ist selber schuld, denn wie die Firma es sagt Hände immer am Steuer ist nur Fahrassistent kein Autopilot wie er ja so gerne Betitelt wird, so hätte er im Falle, eine Bremsung selbst vornehmen können und das Hindernis selbst erkannt und handeln müssen/können.
http://www.20min.ch/schweiz/bern/story/Tesla-Autopilot-ist-nicht-schuld-an-Unfall-27490756
So sollte es überall gehandhabt werden.

Aber man stürtzt sich ja gerne auf etwas wo eine ungenaue vorlage an Infos ausgegeben wird. Dreht sich ja jeder hin wie es Ihm gefällt.
 
@glurak15: Das hat afaik praktische Gründe. So weit ich das gelesen habe, können stehende Hindernisse sehr gut erkannt werden, aber nicht genau genug vorhergesagt werden, ob man damit kollidiert oder nicht. Würde man diese Hindernisse nicht ignorieren, würden die Autopiloten permanent grundlos Vollbremsungen hinlegen. Mit Verfahren wie LIDAR soll das kein Problem mehr sein, aber das ist noch zu teuer für Serienproduktion.
 
@Islander: Im Originalbericht steht: "Preliminary recorded data indicate that the traffic-aware cruise control speed was set to 75 mph at the time of the crash."
[...]
At 8 seconds prior to the crash, the Tesla was following a lead vehicle and was traveling about 65 mph.
[...]
At 4 seconds prior to the crash, the Tesla was no longer following a lead vehicle.
At 3 seconds prior to the crash and up to the time of impact with the crash attenuator, the Tesla's speed increased from 62 to 70.8 mph, with no precrash braking or evasive steering movement detected.
Quelle: https://www.ntsb.gov/investigations/AccidentReports/Pages/HWY18FH011-preliminary.aspx

Das ist der Grund warum das Fahrzeug beschleunigt hat.
Scheinbar hat das Kamerasystem versagt, da meines Wissens Radarsysteme (Dopplereffekt), stehende und entgegenkommende Objekte nicht erfassen kann.
 
Vielleicht wollte der Autopilot nur über das hindernis hinweg springen...
 
@robs80: Meinst du es wollte K.I.T.T. spielen? Hat wohl nicht geklappt...
 
@Digisven: Offensichtlich nicht. Wohl Eher K.A.R.R. der böse Zwillingsbruder

Edith: Name korrigiert
 
@robs80: du meinst wohl K.A.R.R. ;)
 
@PatrickH: Ja , Sorry ist ne weile her.
 
@robs80: Nightrider lässt grüßen

er kommt..Tesla,ein Auto,ein Taschenrechner,ein Mann.....Tesla...ein Mann und sein Auto kämpfen gegen das Unrecht
 
@Computerfreak-007: knight rider Bitte.
 
@achtfenster: iss mir doch egal....
 
Herr Musk soll die Schuld doch einfach eingestehen das Tesla eine Teilschuld daran hat und in Zukunft ihre Werbung anpassen und die Fahrer bzw. Käufer beim Kauf auch entsprechend darauf hinweisen das es kein selbstfahrendes Auto ist sondern der Mensch weiterhin ein fester Bestandteil ist!!

Btw.
Aber das ein Autopilot nicht ohne Mensch funktioniert wissen wohl immer noch nicht alle...Sah noch kein Flugzeug ohne Pilot oder einem Pilot der während des Fluges schläft.
 
@Edelasos: Also Piloten die wärend des Fluges schlafen gibt es aber reichlich. Schließlich sind sie ja meistens beim Start noch nicht ganz nüchtern.
 
@Tomarr: Gerade auf Langstreckenflügen können sie ihren Rausch gut ausschlafen
 
@Tomarr: Bei Flugzeugen ist es aber auch nicht ganz so kritisch, weil der Verkehr im Luftraum nicht so eng ist wie auf der Straße. Auf der Straße entscheiden manchmal schon 20cm zwischen Leben und Tod. Der Spielraum für Fehler des Autopiloten ist hier wesentlich kleiner.
 
@Runaway-Fan: und normalerweise sitzt da auch noch ein Co-Pilot
 
@Wuusah: Der noch dazu eine Ausbildung zur Bedienung des Flugzeugs inkl. des Autopiloten durchläuft und somit ganz genau weiß was der Autopilot kann und was er nicht kann.
 
@spitfire2k:

und bevor jemand Pilot werden kann muss er etliche Stunden im Flugsimulator bestehen
 
@Computerfreak-007: ist ja nicht so, als würde man den Auto Führerschein geschenkt bekommen.
Auto Pilot ist einfach eine schlechte Bezeichnung. Heutzutage ließt man überall vom autonomen Fahren, da kann ein Unwissender leicht davon ausgehen, dass dieser Auto Pilot genau das ist. Dabei ist es einfach nur ein erweitertes Assistenzsystem.
 
@Tomarr:
Das Sowohl Pilot als auch Co-Pilot gleichzeitig schlafen ist sehr unwahrscheinlich und sogar verboten...

Und ja..besoffene Piloten gibts auch wie Sand am Meer...

Ich sehe...du bist ein richtiger Flugexperte.
 
@Edelasos: Das ist zweifellos alles richtig. Ich würde allerdings sagen, selbst wenn die Menschen "schuld" sind... Vielleicht ist die Technik noch nicht weit genug oder wir sind einfach noch nicht soweit, etwas Derartiges in freier Wildbahn zu nutzen. Ich finde, dass es nur eine untergeordnete Rolle spielt, ob das System nicht gut genug ist oder ob die Leute damit noch nicht umgehen können.
 
@witek: ich finde es schon recht wichtig, ob "nur" Menschen mit der Technik überfordert sind oder ob die Technik selber noch größere Kinderkranheiten hat.
Im ersten Fall dürfte man die meisten errungenschaften nicht mehr nutzen, denn irgendwer ist immer mit irgendwas überfordert .... :)
 
@witek: Die Frage ist: Wie weit muss die Technik denn sein?! Alle Menschen wollen immer die totale Sicherheit. Statistisch schlägt sich der Autopilot doch unheimlich gut und viel besser als ein Mensch. Heißt das nicht, dass die Technik sehr gut funktioniert bzw. eigentlich sogar das Gegenteil deiner Behauptung: Jeder sollte es in freier Wildbahn benutzen weil es dann sicherer wäre?

Es stürzt doch leider auch hin und wieder ein Flugzeug ab. Da sagt doch auch keiner: Ach, lassen wir das mal besser bis die Technik so weit ist...
 
@Yamben: Mit Statistiken ist das immer so ne Sache.
 
@Edelasos: "... und die Fahrer bzw. Käufer beim Kauf auch entsprechend darauf hinweisen das es kein selbstfahrendes Auto ist sondern der Mensch weiterhin ein fester Bestandteil ist!!"
Macht Tesla bereits.

Steht auch nochmals zusätzlich an den verschiedensten Stellen (Info zum Autopilot, Infos zu autonomen Fahren, Konfiguration, usw.).
Tesla hat zwar vor, dass die Fahrzeuge autonom fahren können und möchte auch die Fahrzeuge seit 2016 mit dem erweiterten Autopilot per Software Update später aktualisieren können ohne Hardware-Aufrüstung, aber dazu sind noch Tests und Freigaben erforderlich.

Das einzige, was leider bei dem oben genannten Todesfall nicht der Fall gewesen scheint laut Fahrzeugbeschreibung wäre die Notbremsautomatik, denn diese gehört zur Standardausrüstung des Autopiloten.
 
@Tical2k: Allen diesbezüglichen Hinweisen zum Trotz HALTEN die Fahrer den Autopiloten aber für einen Autopiloten, weil er nun mal so HEISST. Und darin liegt der gewichtigste Fehler, die dummen Amis kapieren halt nicht, daß es KEIN Autopilot ist, wenn es doch "Autopilot" heißt.

Ich stimme den Vorpostern zu: Umbenennen in "Fahrhilfsassistent" oder ähnlich harmloses, und/aber ansonsten auch gar nicht mehr bewerben. Der Fahrer darf gar nicht erst auf die Idee kommen, daß er auch nur kleinstanteilig irgendwelche Aufmerksamkeit, Tätigkeit oder Verantwortung abgeben kann.
 
@departure: Es ist ein Autopilot..
Im Straßenverkehr natürlich nur deutlich komplexer als in Schifffahrt, Flugzeug oder Raumfahrt.
Der Tesla kann sogar größtenteils selbst steuern, dennoch ist der Fahrer gefragt, gerade bei den Warnsignalen (wie eben im Flugzeug und Konsorten).
Nur weil es in den deutschen Fahrzeugen "Fahrassistenzsysteme" heißt, sind es auch dort bereits Autopiloten, die auch in Bezug aufs autonome Fahren weiter ausgebaut werden.
 
@Tical2k: " … dennoch ist der Fahrer gefragt …"

Und da liegt doch ganz augenscheinlich das Problem - er tut nicht ...
 
@Tical2k: Dass der Fahrer gefragt ist und bereit sein muss einzugreifen, ist aber problematisch. Denn in vielen denkbaren Situationen ist es zu dem Zeitpunkt, wo der Mensch frühestens erkennen kann, dass die Automatik eben nicht richtig reagiert und er eingreifen muss, bereits zu spät, um selbst bei sofortigem und bestmöglichen Eingriff die Situation noch zu lösen.

Ganz einfaches Beispiel: Landstraße, Tempo 100, man fährt auf eine enge Kurve zu, die auch entsprechend gekennzeichnet ist und für die man stark abbremsen muss. Man ist aber noch weit genug entfernt, der Autopilot bremst also noch nicht.
Wie lange lässt du den Autopiloten mit Tempo 100 auf die enge Kurve zu fahren, bis du zu dem Schluss kommst du bremst jetzt lieber selbst? Bis zu dem Zeitpunkt, wo es zu spät ist ausreichend abzubremsen, weißt du nicht ob der Autopilot es nicht doch noch von alleine machen wird.
Besteht die kleinste Chance, dass der Autopilot vielleicht doch nicht bremst, ergibt sich daraus zwangsläufig die Konsequenz, dass du immer selber bremsen musst und den Autopilot dafür gar nicht mehr nehmen kannst. Weil in dem Moment wo du sicher bemerkst "er hat nicht gebremst und bremst auch nicht mehr", ist es wahrscheinlich zu spät und du ratterst in die Kurve rein.

Folglich: Die ständige Bereitschaft einzugreifen ist für so einen Autopiloten vom Menschen tatsächlich zu viel verlangt. Entweder man steuert komplett selber oder man hat einen Autopiloten, wo man gar nicht eingreifen müsste. Dieses halbe/halbe ist das schlechteste was man machen kann.
 
@mh0001: Man arbeitet ja daraufhin, dass die Fahrzeuge das irgendwann alleine können.
Das geht aber nicht von jetzt auf nachher, weshalb es die Zwischenstadien gibt.
Bei Flugzeugen gab es zu Beginn soweit ich weiß auch nur die Möglichkeit den Kurs zu halten, inzwischen kann der auch alleine starten und landen, sowie teils Aktionen vom Piloten überschreiben.

WENN das Gerät den Fahrer schon warnt und ihm mitteilt, er muss agieren, tut es aber nicht oder nur halbherzig, dann ist das ebenfalls das falsche Verhalten des Fahrzeugführers.
WENN das Gerät hingegen einfach automatisch Mist baut ohne jegliche Warnung oder sonst was, dann ist das hingegen nicht ohne Weiteres möglich.
Aus den Medien bekommt man in dem Beispiel oben jedenfalls teils abweichende Aussagen und mir ist nicht bekannt, was genau nun dahinter steckt.

Was wie gesagt auf alle Fälle versagt zu haben scheint, was nicht hätte passieren dürfen, ist die Notbremsautomatik, die die Objekte offenbar nicht richtig erkannt hat.
Allerdings ist hier ebenfalls die Frage, ob das Gerät das als "unbekannt" eingestuft hat, eine Warnung diesbezüglich an den Fahrer gerichtet war und er hätte entscheiden müssen und das "nichts tun" als "alles gut, fahr weiter" interpretiert wurde.

Da stecken nun viele "Wenns" drin, aber anders geht das nicht ohne die Umstände tatsächlich zu kennen.
 
@departure: Also sollen wir jetzt wieder Abstand nehmen von Autopiloten/Fahrassistenzsystemen und zurückkehren zu komplett eigener Fahrt, weil da niemals (tödliche) Unfälle passieren?

Allein was schon mit eingeschaltetem Tempomat geschehen ist oder wenn der Fahrer einschläft, mal von Alkohol und Drogen am Steuer ganz zu schweigen.
Da hilft der Autopilot eben doch um einiges und womöglich ist eines Tages eine komplette Automatisierung davon möglich.
Aktuell ist es das nicht und wird auch überall mitgeteilt, wenn man das nicht verstehen möchte, dann sollte man womöglich nicht auf so etwas zurückgreifen oder muss sich der Gefahr bewusst sein.
 
@Tical2k: Mir brauchst Du das nicht sagen, ich weiß das.

"...und wird auch überall mitgeteilt..." - aber scheinbar nicht gelesen :-(

"...oder muss sich der Gefahr bewusst sein..."

Speziell damit haben's die Amis ja so gar nicht ...
 
@Tical2k: Ich habe in meinem Firmenwagen auch einen "Autopiloten". Nennt sich Distronic und das Teil ist sehr hilfreich, aber noch sehr weit davon entfernt, ein Autopilot zu sein. Selbst wenn Tesla in der Entwicklung weiter sein sollte, sind deren Systeme noch lange nicht autonom. Ich denke, dass Tesla aus rein wirtschaftlichen Gründen ihre System als Autopilot vermarktet weil sie sich erhoffen, sich davon von Konkurrenten abzusetzen. Die Leidtragenden sind dann die naiven Fahrer, die das für bare Münze nehmen und sich eben nicht die Gebrauchsanweisung bis zum Ende durchlesen.
Meiner Einschätzung nach wird es mindestens non 10 Jahre dauern, bis die ersten halbwegs autonom fahrenden Autos verfügbar sind.
 
Die sollten diesen Assistenten einfach nicht mehr als Autopilot bezeichnen, denn das ist grob irreführend.
Und die Warnungen, das Lenkrad wieder zu übernehmen, sind allem Anschein nach noch nicht dringlich genug ... ggf. muss die Karre dann eben mal an geeigeneter Stelle rechts ranfahren, parken und sich abstellen, wenn der Fahrer mehr als eine definierte Zeitspanne lang nicht selber übernimmt oder auf solche Warnungen reagiert. Totmann-Schalter in der Straßenversion sozusagen.
 
Abgesehen von der Frage, warum der Wagen beschleunigte, wäre die Frage, wie der genaue Ablauf eigentlich war. Die Betonwand stand ja nicht auf der Straße und eigentlich sollte das Auto ja auf der normalen Fahrspur fahren.
Warum also hat das System die reguläre Fahrspur verlassen?
Ich kenne es von meinem eigenen Spurhalteassistenten durchaus, dass alte Fahrbahnmarkierungen das System manchmal irritieren und ihn dann "falsch abbiegen" lassen wollen.
Da es aber nur ein ausgewiesener Assistent ist, weiß ich davon und muss in solchen Fällen das Lenkrad einfach festhalten und "gegensteuern". Bei einem Autopiloten, bei dem es durchaus erlaubt ist, ohne Hände am Lenkrad zu fahren, wäre sowas natürlich fatal.
 
@Runaway-Fan: Generell wäre es von Vorteil den Auto Piloten nicht ohne Hände auf dem Lenkrad funktionieren zu lassen. Nicht nur ist die Reaktionszeit absolut miserabel, wenn der Fahrer das Lenkrad nicht hält, auch gibt es ein Übersteuerungsproblem. Wenn der Auto Pilot die Kurve nicht schafft und man eingreifen muss, dann passiert es schnell, dass man das Lenkrad greift, rumreißt und dann komplett übersteuert in den Gegenverkehr oder Graben fährt.
 
Wow - die Auswahl der Werbung ist genial....

Über den ZWEI Vorschaubildern mit den ZWEI Telsa (Schrott und brennend) eine Werbung für NIMM 2 - LACH GUMMI

HAHA.

Aber ich muss auch lachen dass die Leute einfach nicht aufpassen und ihrer Kontroll- und Überwachungspflicht nicht nachkommen.
 
@Stefan1979: hast meinen Screenshot im ersten Post gesehen? Ist noch makabrer
 
@ExusAnimus: Der ist echt noch besser... Genial... Schade dass nur wenig Bestattungsinstitute online Werbung machen - da gäbe es dann sicher absolut geniale Kombinationen.
 
@Stefan1979: Das die Werbung nicht von Menschen geschaltet wird, ist dir schon bekannt?
 
@artchi: Aber der Mensch bestimmt WO die erscheint.

Bei den beiden Bildern darunter wäre die Gefahr um einiges geringer dass so ein Unsinn rauskommt.

Aber bei den anderen beiden Bildern ist Werbung drüber ziemlich unpasend...

So wie jetzt gerade "Seat" Werbung - "Do your thing".... Ja genau - los und gegen eine Mauer rasen...
 
@Stefan1979: Vielen Dank für den Hinweis! Tut uns schrecklich leid, das darf natürlich nicht vorkommen, auch wenn das nicht direkt unsere Schuld ist, sondern automatisch vom Vermarkter ausgeliefert wird. Wir setzen aber einen Mechanismus um, mit dem sowas künftig verhindert werden kann. Sorry nochmal!
 
@witek: Ist ja kein Problem - mich trefft ihr damit nicht ;-) Aber gibt genug Leute die das nicht lustig finden....

Ich fand es lustig ;-) Hätte auch die Werbung für einen Feuerlöscher lustig gefunden - oder einen Optiker ;-)
 
@Stefan1979: Meine Antwort steht stellvertretend für alle, die das irritiert hat, ich wollte aber nicht jeden Beitrag dazu kommentieren. Punkt ist: Unter einem tödlichen Unfall hat Werbung gar nichts zu suchen, ob sie nun "passend" ist oder wie im von dir erwähnten Fall völlig daneben. Aber wie erwähnt: Wir haben da jetzt schon was umgesetzt, dass sich das nicht wiederholt.
 
@witek: Wie wäre es, wenn ihr eure Werbung selbst hostet und auswählt, damit a) sowas nicht vorkommen kann und b) der Besuch eurer Webseite keine 500 Tracker, Fremdserver (sprich potenzielle Virenschleudern) und MegaByte an Daten aufruft?
 
@eN-t: Dir ist schon klar, dass sowas mit einem so kleinen Team wie dem unseren unmöglich ist? Klar, schön wäre das wohl, ich bin mir ziemlich sicher, dass das nicht so viel mehr abwerfen würde, dass wir uns eine eigene Anzeigenabteilung leisten könnten.
 
Skynet lässt grüßen.
 
@SAP0: Wohl eher Darwin Award...
Nach den zig Unfällen sollte es schon schon dem dümmsten klar sein, dass der Autopilot nicht ausgereift ist...
 
mein Senf:

diese Technologie kommt einfach zu früh! auch sind weder unsere Strassennetze, noch Strassenregeln, noch die Autos, noch die Menschen selbst darauf vorbereitet aka sensibilisiert.

denke, wenn die Technologie genauer, in Verbindung mit Schwarm-KI (muss jedes Auto kompatibel sein), besser ausgebauten Strassen (saubere markierungsstriche) und ein besseres Verständnis des Menschen, dann sehe ich ein Licht am Horizont!!
 
@AlexKeller: So sehe ich das auch. Das gesamte Verkehrsnetz müsste von grund auf für autonomes Fahren konzipiert werden. Straßen und Autos müssten ALLE voll vernetzt sein und es darf nicht vorkommen, dass Fußgänger als unbekannte Variable auftauchen.

Es funktioniert einfach nicht, das Auto in Form einer KI auf den bestehenden Straßenverkehr loßzulassen, da einfach viel zu viele Fehler passieren können. Und das wird sich auch niemals ändern. Man muss sich ja nur mal ansehen, wie viele Fehler in Software enthalten ist. Siehe iOS, siehe Windows, siehe Android. Wir sind einfach nicht fähig fehlerfreie Software zu schreiben. Doch wir sind fähig, funktionierende Konzepte aufzubauen. Und genau das brauchen wir im Verkehr. Ein funktionierendes Konzept, bei dem Unfälle nicht aktiv vermieden werden müssen, sondern bei dem Unfälle konzeptbedingt überhaupt nicht möglich sind. Als vergleich würde mir da z.B. Fördertechnik oder ähnliches einfallen. Die Ware kommt von A nach B, wird dahin geschleußt, wohin sie muss, aber Unfälle sind praktisch nicht möglich.

Natürlich wäre sowas aktuell überhaupt nicht umsetzbar, da quasi alles neu gebaut werden müsste, aber ich denke, in vielleicht 100-200 Jahren werden uns die Menschen für vollkommen lebensmüde halten, wenn sie auf unseren aktuellen Verkehr zurückblicken. Alleine schon die Tatsache, dass auf ner Ladstraße zwei Autos mit einem Geschwindigkeitsunterschied von 200 km/h mit nur ca. 1 - 1,5 Meter Abstand aneinander vorbeirauschen und die Fahrer dabei auf ihr lenkgefühl vertrauen ist objektiv betrachtet eigentlich fahrlässig und weit von "sicher" entfernt... Zumal ja auch Überholen erlaubt ist. Wenn man sich das mal so durch den Kopf gehen lässt.... Ich denke, da wird sich langfristig einiges ändern.
 
es ist und bleibt noch lange ein unausgereiftes Programm, einen Computer auf Leben loszuschicken ist nicht richtig meiner Meinung.
 
Keiner würde ein Kinderwagen mit einem Autopiloten versorgen wenn er nicht sicher wäre.
Die sollten erstmal an Sensoren und Kamera Arbeiten die das menschliche Auge übertreffen.
 
Wie unter den ganzen Nachrichten die Tesla Fans wieder herumjammern, dass man das doch alles nicht schreiben sollen und das sich alle immer bei Tesla aufregen.

Klar, keiner darf mehr schreiben, damit Musk keine Kritik einstecken muss und nicht wieder das Weinen anfängt.

Wer großkotzig die Menschen für dumm darstellt und alles mit autonomen Systemen und Robotern ersetzen will, welche am Ende nur Kacke bauen, der hat es nicht anders verdient.

Mit jeder solchen Meldung steigt die Wahrscheinlichkeit, dass der autonome Blödsinn wieder gekippt wird.

Diese Systeme sind auch nur vom Menschen gebaut und programmiert und können Fehler enthalten.

Genauso können die Systeme wenn sie älter sind, oder wie jetzt bei Hitze immer wieder Fehler auswerfen und merken es nicht einmal (alternde Kondensatoren). Dann geht es schön autonom gegen den Baum.
 
Super Laden, bringt Menschen durch seine 'unfertige' Ware um. Riesiges Marketinggedöns, große Schreierei aber wenig Leistung. Typisch amerikanisches Marketing halt. Und die Lemminge und intellektuell Minderbemittelten - teilweise die mit Kohle - fallen darauf rein.
Arme neue Welt. 'Make America great again'...was für ein Hohn & Spott !
 
Auf anderen Bildern und bei späteren Probefahrten war zu erkennen, daß eine alte Linie exakt in das Hindernis führt. Das hat nichts mit Bechleunigung usw. zu tun, sondern der Tesla lenkte ohne Vorwarnung nach links ins Hindernis. Welcher Mensch lenkt auf gerader Autobahn nach links, wenn sich dort noch eine alte Baustellenmarkierung befindet?
Hier besteht akuter Handlungsbedarf, daß Tesla seine Software anpaßt.
Wenn an dieser Stelle zehntausende von Fahrzeugen geradeaus fahren, dann darf einfach ein Tesla nicht auf die Idee kommen, hier anders zu fahren.
Die Autos müssen "miteinender reden" und so kann das Tesla von den vorausfahrenden Fahrzeugen erfahren, daß es hier nur geradeaus weiter geht.
Auch ist es ein MUß, daß eine Fehlererkenntnis eines Teslas ausgelöst durch die manuelle Korrektur eines Fahrers an andere Fahrzeuge mitgeteilt wird, so daß diese den Fehler vermeiden bzw. den Fahrer rechtzeitig warnen mit: "Gefährliche Stelle, bitte selber steuern".
Autonome Systeme leben von exakten Datenbanken, die absolut zeitnah gepflegt sind. Zum Lernen eignen sich damit Fahrzeuge, die manuell gesteuert werden. Wenn alle manuell gesteuerten Fahrzeuge an einem Vormittag eine alte Begrenzungslinie mißachten, dann liegt doch nahe, daß der Tesla das zeitnah erfährt, um dieses Verhalten auch in Erwägung zu ziehen.
Kommentar abgeben Netiquette beachten!
Einloggen

Jetzt als Amazon Blitzangebot

Ab 09:49 Uhr Minisforum Windows 10 Pro Mini PC, Intel Celeron N4100 Quad-Core Prozessor, 8 GB DDR4 128 GB SSD Desktop-Computer, Unterstützung von 4K HD@60Hz/HDMI VGA Anschluss/Dual WiFi/Gigabit Ethernet/BT 4.2Minisforum Windows 10 Pro Mini PC, Intel Celeron N4100 Quad-Core Prozessor, 8 GB DDR4 128 GB SSD Desktop-Computer, Unterstützung von 4K HD@60Hz/HDMI VGA Anschluss/Dual WiFi/Gigabit Ethernet/BT 4.2
Original Amazon-Preis
239,00
Im Preisvergleich ab
189,99
Blitzangebot-Preis
202,22
Ersparnis zu Amazon 15% oder 36,78

WinFuture Mobil

WinFuture.mbo QR-Code Auch Unterwegs bestens informiert!
Nachrichten und Kommentare auf
dem Smartphone lesen.

Folgt uns auf Twitter

WinFuture bei Twitter

Interessante Artikel & Testberichte

WinFuture wird gehostet von Artfiles