EU roept inwoners op tot ethische ai-discussie

Burgers kunnen tot en met 1 september hun mening geven over ai-toekomstscenario’s

Het Europese onderzoeksproject Sherpa heeft vijf scenario’s ontwikkeld over de toekomst van kunstmatige intelligentie (ai) in 2025. Deze gaan over technologieën die mensen nabootsen, informatieoorlogsvoering, auto's zonder bestuurder, voorspellend politiewerk en onderwijs van buddyrobots. De scenario-ontwikkelaars nodigen nu burgers uit om de scenario's te bekijken en commentaar te geven.

Het Sherpa-project onderzoekt de ethische en juridische impact van kunstmatige intelligentie en big data. De onderzoekers stellen dat deze technologieën een positieve impact op onze samenleving en de economie kunnen hebben, maar dat ze ook ethische vraagstukken creëren. 

Tijdens workshops met belanghebbenden uit de academische wereld, de industrie, maatschappelijke organisaties, de media, wet- en regelgevers, onderwijskundigen, technologen, cyberbeveiligingsdeskundigen en kunstenaars zijn vijf toekomstscenario’s voor 2025 ontwikkeld. Hierin staat een reeks van aanbevelingen aan beleidsmakers.

De initiatiefnemers roepen nu burgers op om mee te denken over deze ethische vraagstukken. Deze Engelstalige scenario's zijn online gepubliceerd en burgers kunnen hier een reactie achterlaten. Dit kan tot 1 september 2019.

Sherpa

Het Sherpa-project wordt gefinancierd vanuit het H2020 Research and Innovation programma van de Europese Unie. In totaal werken elf Europese partners mee aan dit project. Het gaat om universiteiten, bedrijfsleven, ngo's, en de Europese belangorganisatie voor ethische commissies.

x

Om te kunnen beoordelen moet u ingelogd zijn:

Dit artikel delen:

Stuur dit artikel door

Uw naam ontbreekt
Uw e-mailadres ontbreekt
De naam van de ontvanger ontbreekt
Het e-mailadres van de ontvanger ontbreekt

×
×
article 2019-07-19T10:45:00.000Z Suzanne Martens


Wilt u dagelijks op de hoogte worden gehouden van het laatste ict-nieuws, achtergronden en opinie?
Abonneer uzelf op onze gratis nieuwsbrief.