O. Udeman
2018-04-17 14:55:50 UTC
https://www.ad.nl/auto/falende-software-in-auto-s-levensgevaarlijk~ad012bf5/
"
Falende software in auto's levensgevaarlijk
Pc's, laptops en smartphones lopen soms vast door een storing in de
software. Heel vervelend natuurlijk, maar in een auto die 130 km/u
rijdt, kan het fataal zijn als de software hapert.
Eigenlijk is autorijden ongelooflijk veilig, met gemiddeld één dodelijk
ongeval per drie miljoen uur rijden. Zelfrijdende voertuigen moeten het
autoverkeer nog veiliger maken. Maar met de huidige generatie software
wordt dat 'verbazingwekkend moeilijk', waarschuwt onderzoeker Steven
Shladover van de Universiteit van Berkeley.
,,Geen enkele software op laptops, telefoons of andere moderne apparaten
is ontworpen om gedurende langere tijd te functioneren zonder te
crashen, glitchen (kortdurende storing) of vast te lopen. In een auto
kunnen dergelijke fouten dodelijk zijn'', aldus Shladover.
Berucht is het voorbeeld van de onbedoelde acceleratie van Toyota's in
de VS. Uit onderzoek van professor Philip Koopman van de Carnegie Mellon
Universiteit bleek dat de software van het elektronische gaspedaal niet
deugde. De experts die de software bestudeerden, spraken over 'spaghetti
code' en dat was niet bedoeld als compliment.
Nog maar enkele weken geleden werd een vrouw bij het oversteken
doodgereden door een zelfrijdende auto van taxibedrijf Uber en kort
daarna overleed een man toen zijn Tesla in de stand 'autopilot' tegen de
vangrail botste. In beide gevallen wordt er ernstig rekening mee
gehouden dat de software haperde.
Boeing
Volgens Shladover zal het voor autofabrikanten vrijwel onmogelijk zijn
om veilige software te ontwikkelen, alleen al vanwege de kosten die
daarmee zijn gemoeid. ,,Als Boeing bijvoorbeeld een nieuw vliegtuig
ontwikkelt, gaat de helft van de kosten naar het controleren en
valideren van de software. En dan hebben we het over vliegtuigen die
meestal door mensen worden bestuurd.''
Experts vrezen dat bugs en glitches een serieuze hindernis vormen voor
massaproductie van zelfrijdende auto's. Niet in de laatste plaats
vanwege de rare, onverwachte aard van de ongevallen die ze kunnen
veroorzaken. Koopman: ,,Als ik kijk naar de fouten zeg ik bijna altijd:
'Wauw, dat had niet mogen gebeuren'.''
De continue stroom van terugroepacties en noodzakelijke software-updates
in de auto-industrie legt volgens Koopman het onderliggende probleem
bloot. ,,Fabrikanten willen kennelijk niet de tijd en moeite spenderen
om het goed te doen.'' Zo is de autonome auto van Uber waarschijnlijk te
vroeg de weg op gestuurd om de bazen en aandeelhouders tevreden te stellen.
Programmeurs
Koopman noemt het opvallend dat veel bedrijven die autonome auto's
ontwikkelen programmeurs aannemen uit Silicon Valley. ,,Mannen en
vrouwen met als achtergrond het ontwikkelen van software voor algemeen
gebruik - software die uiteraard met enige regelmaat crasht. Ze huren
niet of nauwelijks mensen in uit de gelederen van de
luchtvaartveiligheidsindustrie. Weten hoe je moet programmeren is wat
anders dan weten dat je product altijd doet wat het moet doen.''
Europarlementariër Paul Tang (PvdA) wil dat de Europese Commissie
autofabrikanten verplicht de broncode van hun motormanagement-software
open te stellen. Zo kan niet alleen gesjoemel voor uitstootnormen worden
ontdekt, maar kan ook worden bekeken of bedrijven een goede error
handling hebben. Daarbij gaat het erom dat onder alle omstandigheden
essentiële delen van de software goed blijven functioneren. Dus ook als
de accu leeg raakt, als het stormt, of als een elektromotor van de
besturing uitvalt. En dat alles bij plus veertig en min twintig graden
Celsius.
Proefkonijn
Voor miljoenen situaties in het dagelijkse verkeer zou zo'n error
handling erger moeten voorkomen. De vraag is of dat ook gebeurt voor de
ingewikkelde software in zelfrijdende auto's.
Zo blijkt Tesla zelfs regelmatig zijn eigen klanten in te zetten als
proefkonijn bij de opsporing van computergerelateerde onvolkomenheden.
Dit merk verkoopt auto's met software die zich in de zogeheten 'publieke
bèta-fase' bevindt. Of verstuurt die via updates rechtstreeks naar de
auto's die al rondrijden. Die software is dan vrijgegeven om door het
publiek in de praktijk te worden getest, zodat bugs gedetecteerd kunnen
worden.
Het is een soort aanpak die je verwacht als je als 'voorloper' op de
massa vroeg toegang krijgt tot nieuwe e-mailtoepassingen of virtual
reality-headsets. Maar niet bij auto's. Of zoals Apple-oprichter Steve
Wozniak tegen The New York Times zei: ,,Bètaproducten mogen nooit
vrijgegeven worden in situaties die dodelijk kunnen zijn.'' "
Lijkt me voer voor juristen en politici. De graagte en kritiekloosheid
waarmee ontwikkelingen die men niet goed begrijpt worden omarmd en zelfs
op voorhand als wenselijk en zelfs als onvermijdelijk worden beschouwd,
moeten echt op de schop.
"
Falende software in auto's levensgevaarlijk
Pc's, laptops en smartphones lopen soms vast door een storing in de
software. Heel vervelend natuurlijk, maar in een auto die 130 km/u
rijdt, kan het fataal zijn als de software hapert.
Eigenlijk is autorijden ongelooflijk veilig, met gemiddeld één dodelijk
ongeval per drie miljoen uur rijden. Zelfrijdende voertuigen moeten het
autoverkeer nog veiliger maken. Maar met de huidige generatie software
wordt dat 'verbazingwekkend moeilijk', waarschuwt onderzoeker Steven
Shladover van de Universiteit van Berkeley.
,,Geen enkele software op laptops, telefoons of andere moderne apparaten
is ontworpen om gedurende langere tijd te functioneren zonder te
crashen, glitchen (kortdurende storing) of vast te lopen. In een auto
kunnen dergelijke fouten dodelijk zijn'', aldus Shladover.
Berucht is het voorbeeld van de onbedoelde acceleratie van Toyota's in
de VS. Uit onderzoek van professor Philip Koopman van de Carnegie Mellon
Universiteit bleek dat de software van het elektronische gaspedaal niet
deugde. De experts die de software bestudeerden, spraken over 'spaghetti
code' en dat was niet bedoeld als compliment.
Nog maar enkele weken geleden werd een vrouw bij het oversteken
doodgereden door een zelfrijdende auto van taxibedrijf Uber en kort
daarna overleed een man toen zijn Tesla in de stand 'autopilot' tegen de
vangrail botste. In beide gevallen wordt er ernstig rekening mee
gehouden dat de software haperde.
Boeing
Volgens Shladover zal het voor autofabrikanten vrijwel onmogelijk zijn
om veilige software te ontwikkelen, alleen al vanwege de kosten die
daarmee zijn gemoeid. ,,Als Boeing bijvoorbeeld een nieuw vliegtuig
ontwikkelt, gaat de helft van de kosten naar het controleren en
valideren van de software. En dan hebben we het over vliegtuigen die
meestal door mensen worden bestuurd.''
Experts vrezen dat bugs en glitches een serieuze hindernis vormen voor
massaproductie van zelfrijdende auto's. Niet in de laatste plaats
vanwege de rare, onverwachte aard van de ongevallen die ze kunnen
veroorzaken. Koopman: ,,Als ik kijk naar de fouten zeg ik bijna altijd:
'Wauw, dat had niet mogen gebeuren'.''
De continue stroom van terugroepacties en noodzakelijke software-updates
in de auto-industrie legt volgens Koopman het onderliggende probleem
bloot. ,,Fabrikanten willen kennelijk niet de tijd en moeite spenderen
om het goed te doen.'' Zo is de autonome auto van Uber waarschijnlijk te
vroeg de weg op gestuurd om de bazen en aandeelhouders tevreden te stellen.
Programmeurs
Koopman noemt het opvallend dat veel bedrijven die autonome auto's
ontwikkelen programmeurs aannemen uit Silicon Valley. ,,Mannen en
vrouwen met als achtergrond het ontwikkelen van software voor algemeen
gebruik - software die uiteraard met enige regelmaat crasht. Ze huren
niet of nauwelijks mensen in uit de gelederen van de
luchtvaartveiligheidsindustrie. Weten hoe je moet programmeren is wat
anders dan weten dat je product altijd doet wat het moet doen.''
Europarlementariër Paul Tang (PvdA) wil dat de Europese Commissie
autofabrikanten verplicht de broncode van hun motormanagement-software
open te stellen. Zo kan niet alleen gesjoemel voor uitstootnormen worden
ontdekt, maar kan ook worden bekeken of bedrijven een goede error
handling hebben. Daarbij gaat het erom dat onder alle omstandigheden
essentiële delen van de software goed blijven functioneren. Dus ook als
de accu leeg raakt, als het stormt, of als een elektromotor van de
besturing uitvalt. En dat alles bij plus veertig en min twintig graden
Celsius.
Proefkonijn
Voor miljoenen situaties in het dagelijkse verkeer zou zo'n error
handling erger moeten voorkomen. De vraag is of dat ook gebeurt voor de
ingewikkelde software in zelfrijdende auto's.
Zo blijkt Tesla zelfs regelmatig zijn eigen klanten in te zetten als
proefkonijn bij de opsporing van computergerelateerde onvolkomenheden.
Dit merk verkoopt auto's met software die zich in de zogeheten 'publieke
bèta-fase' bevindt. Of verstuurt die via updates rechtstreeks naar de
auto's die al rondrijden. Die software is dan vrijgegeven om door het
publiek in de praktijk te worden getest, zodat bugs gedetecteerd kunnen
worden.
Het is een soort aanpak die je verwacht als je als 'voorloper' op de
massa vroeg toegang krijgt tot nieuwe e-mailtoepassingen of virtual
reality-headsets. Maar niet bij auto's. Of zoals Apple-oprichter Steve
Wozniak tegen The New York Times zei: ,,Bètaproducten mogen nooit
vrijgegeven worden in situaties die dodelijk kunnen zijn.'' "
Lijkt me voer voor juristen en politici. De graagte en kritiekloosheid
waarmee ontwikkelingen die men niet goed begrijpt worden omarmd en zelfs
op voorhand als wenselijk en zelfs als onvermijdelijk worden beschouwd,
moeten echt op de schop.