Spring naar bijdragen

Aanbevolen berichten

Hebben jullie de AI regelgeving al meegekregen ? 

Wat vinden jullie er van ? 

 

https://www.nrc.nl/nieuws/2023/12/09/het-is-nu-duidelijk-hoe-europa-ai-aan-banden-wil-leggen-en-daarmee-wereldwijd-een-norm-stelt-a4183806

"Het is nu duidelijk hoe Europa AI aan banden wil leggen (en daarmee wereldwijd een norm stelt)

AI-Akkoord Na dagen onderhandelen bereikte de EU vrijdagavond laat een akkoord over AI-wetgeving. Volgens Europarlementariërs moest er een „enorme strijd” worden geleverd met EU-overheden.

 

Nog niet alle details over het gesloten akkoord zijn bekend en ook moeten het Europarlement en EU-lidstaten zich nog een keer over het eindresultaat uitspreken. Maar de kaders zijn wel duidelijk bepaald, en daarmee wordt duidelijk hoe Europa AI in de komende jaren aan banden wil gaan leggen en daarmee wereldwijd een norm wil stellen.

 

Uitgangspunt van de wet is dat hoe groter de risico’s bij een AI-systeem zijn, hoe strenger de regels zijn. Het betekent een verbod op systemen met een onaanvaardbaar risico, bijvoorbeeld zogeheten ‘sociale scoresystemen’ door overheden, die burgers categoriseren op basis van persoonlijke kenmerken of gedrag, en het gebruik van emotieherkenningssoftware door werkgevers of onderwijsinstellingen. Op aandringen van het Europarlement wordt het ook verboden te voorspellen of een individu de fout in zal gaan op basis van persoonsgegevens – iets wat een rol speelde in de Toeslagenaffaire in Nederland.

Maar in de wet zitten ook uitzonderingen, waarvan soms nog onduidelijk is hoe verstrekkend ze zijn. EU-lidstaten drongen in de onderhandelingen fel aan op ruime AI-mogelijkheden voor veiligheids- en opsporingsdiensten. Het absolute verbod op real time-gezichtsherkenning dat het Europarlement wilde, komt er om die reden niet: bij de opsporing van onder meer moordverdachten en het voorkomen van terreurdaden mogen overheidsdiensten zulke systemen wel inzetten.

Teleurstellend, vindt onder meer Amnesty International, dat in een verklaring benadrukte dat een „absoluut verbod echt noodzakelijk is” omdat „geen enkele waarborg de schade die gezichtsherkenning toebrengt aan de mensenrechten kan voorkomen.

 

ook de GPAI-modellen vallen straks onder de wet. Het betekent dat achterliggende bedrijven onder meer transparant moeten zijn over de gegevens waarmee de modellen getraind zijn. Ook moeten ze voldoen aan de Europese auteursrechtenwetgeving en bij gegenereerde tekst, afbeeldingen of geluid duidelijk maken dat ze met AI tot stand kwamen.

Voor de grootste systemen, waaronder waarschijnlijk ChatGPT, worden de regels nog strenger: die moeten onder meer ook regelmatig controles uitvoeren over hun mogelijke maatschappelijke impact, eventuele risico’s verplicht beperken en over hun energieverbruik rapporteren.

De hoop is in Europa dat de regels, zoals eerder ook gebeurde met die rond privacy, uiteindelijk mondiaal (deels) zullen worden overgenomen. Maar of dat zal gebeuren is onzeker. Vast staat al wel dat de EU in de wereldwijde race om AI nog flink achterloopt bij de Verenigde Staten en China. De grootste modellen die met de strengste regels te maken krijgen zullen daarom misschien wel uitsluitend buiten Europa ontwikkeld zijn. "

bewerkt door Petra.
Link naar bericht
Deel via andere websites

Het lijkt er op dat de regel geving gebaseerd is op angst in plaats van de mogelijkheden die het biedt. Als iedereen in de wijk en berichtje krijgt  " pas op er rijdt en auto rond die hier niet thuis hoort een de inzittende is een inbreker", zit toch mooi zijn. Kun je toch niet tegen zijn, tenzij je de privacy van inbrekers belangrijker vindt dan de veiligheid van je gezin.

Link naar bericht
Deel via andere websites
11 minuten geleden zei Dat beloof ik:

Het lijkt er op dat de regel geving gebaseerd is op angst in plaats van de mogelijkheden die het biedt. Als iedereen in de wijk en berichtje krijgt  " pas op er rijdt en auto rond die hier niet thuis hoort een de inzittende is een inbreker", zit toch mooi zijn. Kun je toch niet tegen zijn, tenzij je de privacy van inbrekers belangrijker vindt dan de veiligheid van je gezin.

De gevaren van AI zijn wel heel wat groter dan een inbreker. Als zelfs de ontwikkelaars van AI al waarschuwen voor de vergaande mogelijkheden, dan is er wel wat aan de hand.

Link naar bericht
Deel via andere websites
20 minuten geleden zei HJW4:

De gevaren van AI zijn wel heel wat groter dan een inbreker. Als zelfs de ontwikkelaars van AI al waarschuwen voor de vergaande mogelijkheden, dan is er wel wat aan de hand.

Zoals met zoveel zaken zit het gevaar niet in de zaak zelf maar in het gebruik er van. 

Link naar bericht
Deel via andere websites
33 minuten geleden zei Dat beloof ik:

Het lijkt er op dat de regel geving gebaseerd is op angst in plaats van de mogelijkheden die het biedt. Als iedereen in de wijk en berichtje krijgt  " pas op er rijdt en auto rond die hier niet thuis hoort een de inzittende is een inbreker", zit toch mooi zijn. Kun je toch niet tegen zijn, tenzij je de privacy van inbrekers belangrijker vindt dan de veiligheid van je gezin.

Ja de EU zit nogal in met onze veiligheid en privacy.

Ik denk dat ze zich vooral zorgen maken om hun eigen privacy. :D

Er komt dan nog een generatie aan die AI systemen zelf ontwerpen en specifiek kunnen richten op 1 taak. Zoals een bank hacken, een overheid, ...

Wie AI domineert, kan de hele wereld domineren.

Link naar bericht
Deel via andere websites
1 uur geleden zei Dat beloof ik:

Want ? 
Ik zou niet weten waarom niet.

Gods Koninkrijk is niet van deze wereld, dat lijkt me helder.  Het Koninkrijk van God komt niet op waarneembare wijze. En men zal niet zeggen: Zie hier of zie daar, want, zie, het Koninkrijk van God is binnen in u.   Lukas 17: 20-21 (HSV)

Link naar bericht
Deel via andere websites
17 minuten geleden zei Hopper:

Gods Koninkrijk is niet van deze wereld, dat lijkt me helder.  Het Koninkrijk van God komt niet op waarneembare wijze. En men zal niet zeggen: Zie hier of zie daar, want, zie, het Koninkrijk van God is binnen in u.   Lukas 17: 20-21 (HSV)

AI is software. Het is dus niet fysiek, niet waarneembaar.

Link naar bericht
Deel via andere websites
5 minuten geleden zei Hopper:

Wat jij wilt, God heeft geen ICT nodig....

Wat ik wil is niet zo belangrijk, het gaat mij om de inhoud van wat er wordt gezegd.
Jij stelt dat AI niet in Gods koninkrijk bestaat, omdat dit koninkrijk op niet waarneembare wijze komt.
Dan stel ik: maar AI is niet waarneembaar, want het is software.

Lijkt me een normaal argument. 
Ik begrijp niet waarom je daar zo op moet reageren, tenzij je zelf geen inhoudelijk tegen argument hebt.

 

Link naar bericht
Deel via andere websites
7 minuten geleden zei Fundamenteel:

Weet je dat 100% zeker?

Waarom kan een simulatie geen creatie van God zijn? Is dit de werkelijkheid of is de werkelijkheid niet zichtbaar met het naakte oog?

Alles is code, alles...

Het is niet zo ingewikkeld.  De schepping is creatie van God, maar wij als mensen bepalen hoe we omgaan met die schepping.   Ik mag zelf bepalen of ik iets uit de schepping steel  of dat ik iedereen het zijne laat.    Met wat ik doe of nalaat bepaal ik mijn eigen positie binnen de schepping.  Kort gezegd: ik mag vanuit zelfzucht leven of vanuit liefde leven.    En daarin doodt de liefde de zelfzucht , maar andersom is ook het geval: zelfzucht doodt de liefde. 

Zelfzucht of liefde, die keuze laat God aan ons.

De werkelijkheid voor ons is weer een ander verhaal.   Wie met geestelijke ogen ziet, die weet dat de schepping (de werkelijkheid voor ons) ook geestelijk is.

Link naar bericht
Deel via andere websites
9 minuten geleden zei Hopper:

Het is niet zo ingewikkeld.  De schepping is creatie van God, maar wij als mensen bepalen hoe we omgaan met die schepping.   Ik mag zelf bepalen of ik iets uit de schepping steel  of dat ik iedereen het zijne laat.    Met wat ik doe of nalaat bepaal ik mijn eigen positie binnen de schepping.  Kort gezegd: ik mag vanuit zelfzucht leven of vanuit liefde leven.    En daarin doodt de liefde de zelfzucht , maar andersom is ook het geval: zelfzucht doodt de liefde. 

Zelfzucht of liefde, die keuze laat God aan ons.

De werkelijkheid voor ons is weer een ander verhaal.   Wie met geestelijke ogen ziet, die weet dat de schepping (de werkelijkheid voor ons) ook geestelijk is.

Wat dus randomiteit is.

Je beseft toch dat er geen vrije wil is: determinisme

Sartre zei: vrijheid is wat we doen met wat ons aangedaan wordt.

Link naar bericht
Deel via andere websites
2 uur geleden zei Dat beloof ik:

Wat ik wil is niet zo belangrijk, het gaat mij om de inhoud van wat er wordt gezegd.
Jij stelt dat AI niet in Gods koninkrijk bestaat, omdat dit koninkrijk op niet waarneembare wijze komt.
Dan stel ik: maar AI is niet waarneembaar, want het is software.

Lijkt me een normaal argument. 
Ik begrijp niet waarom je daar zo op moet reageren, tenzij je zelf geen inhoudelijk tegen argument hebt.

 

AI is gewoon waarneembaar want software is waarneembaar. Waar zou deze wereld anders apllicatiebeheerders en andere ICTspecialisten voor nodig hebben.

Jezus genas mensen, wekte doden op, liep over het water, deed de storm liggen, stond op uit het graf, liep door muren heen, vermeerderde het brood en de vissen, deed de vissen happen, wandelde met de Emmaüsgangers enzovoort. God heeft volstrekt geen AI nodig. Jij zegt van wel. Vertel jij dan maar waar God volgens jou AI voor nodig heeft. 

bewerkt door Flawless victory
Link naar bericht
Deel via andere websites
2 uur geleden zei Flawless victory:

God heeft volstrekt geen AI nodig. Jij zegt van wel. Vertel jij dan maar waar God volgens jou AI voor nodig heeft. 

Dat was niet wat ik stelde.
@Hopper beweerde dat er in god's koninkrijk geen A.I. is.
Daarop heb ik alleen maar gevraagd 'Waarom niet'.
Vervolgens kwam er wat gebrabbel over waarneembaar/ niet waarneembaar, maar geen antwoord op de vraag.

Ik zou me kunnen voorstellen dat een god zoals die in de bijbel, AI goed kan gebruiken om, bv. om de illusie op te wekken dat er sprake is van mensen te genezen, over het water te lopen, stormen te laten liggen, doden op te laten staan, door muren geen te lopen, vissen en broden te vermeerderen. 

 

Link naar bericht
Deel via andere websites
9 uur geleden zei Dat beloof ik:

Het lijkt er op dat de regel geving gebaseerd is op angst in plaats van de mogelijkheden die het biedt. Als iedereen in de wijk en berichtje krijgt  " pas op er rijdt en auto rond die hier niet thuis hoort een de inzittende is een inbreker", zit toch mooi zijn. Kun je toch niet tegen zijn, tenzij je de privacy van inbrekers belangrijker vindt dan de veiligheid van je gezin.

Vind ik toch lastig. Iemand is immers pas schuldig als dat bewezen is. Stel dat iemand weliswaar ingebroken heeft en zijn straf daarvoor heeft voldaan, maar nu gewoon in de buurt rondrijdt, dan kun je diegene niet zomaar meer een inbreker noemen. Hij kan immers ook gewoon een ritje maken ergens heen, zonder de intentie ergens in te breken. Dat gaat de buurtbewoners dan weer niets aan. Sowieso is de balans tussen privacy en veiligheid vaak lastig aan te houden, zéker als je dat overlaat aan A.I.. Waar leg jij dan precies de grens?

Link naar bericht
Deel via andere websites
34 minuten geleden zei Robert Frans:

Vind ik toch lastig. Iemand is immers pas schuldig als dat bewezen is. Stel dat iemand weliswaar ingebroken heeft en zijn straf daarvoor heeft voldaan, maar nu gewoon in de buurt rondrijdt, dan kun je diegene niet zomaar meer een inbreker noemen. Hij kan immers ook gewoon een ritje maken ergens heen, zonder de intentie ergens in te breken. Dat gaat de buurtbewoners dan weer niets aan. Sowieso is de balans tussen privacy en veiligheid vaak lastig aan te houden, zéker als je dat overlaat aan A.I.. Waar leg jij dan precies de grens?

Het is moeilijk aan te geven waar je die grens precies moet trekken. In zijn algemeenheid is dat als het algemeen belang belangrijker is dat het privacy belang van betrokkene.  Ik dit geval noemde ik een inbreker.  Het zou ook kunnen gaan om een pedofiel die zich bij een speeltuin op houdt, om maar wat te noemen. Dan is het algemeen belang weer groter. Uiteraard zijn er bij elk voorbeeld mitsen en maten en plussen te bedenken,  maar het leek me duidelijk.

Wat ik maar wil aangeven is dat het niet zo ligt dat AI per definitie een slechte zaak is. Integendeel.

Link naar bericht
Deel via andere websites
1 uur geleden zei Dat beloof ik:

Het is moeilijk aan te geven waar je die grens precies moet trekken. In zijn algemeenheid is dat als het algemeen belang belangrijker is dat het privacy belang van betrokkene.  Ik dit geval noemde ik een inbreker.  Het zou ook kunnen gaan om een pedofiel die zich bij een speeltuin op houdt, om maar wat te noemen. Dan is het algemeen belang weer groter. Uiteraard zijn er bij elk voorbeeld mitsen en maten en plussen te bedenken,  maar het leek me duidelijk.

Wat ik maar wil aangeven is dat het niet zo ligt dat AI per definitie een slechte zaak is. Integendeel.

Dat laatste is inderdaad waar. A.I. kan inderdaad goede dingen voortbrengen. Maar ik denk dat de vrees ervoor niet geheel ongegrond is. A.I. is in verschillende opzichten superieur aan de menselijke intelligentie, waardoor het voor ons steeds minder goed navolgbaar en transparant wordt hoe zij tot haar denkstappen komt. Het kan dan moeilijker worden de menselijke maat te blijven handhaven. Ik denk wel dat het belangrijk is dat tech voor ons begrijpelijk en navolgbaar blijft, dat het geen eigen leven kan gaan leiden. En met A.I. kan dat laatste wel degelijk een risico vormen als we er geen grenzen aan stellen.

Nu al zien we hoe algoritmes van techplatformen een diepgaande invloed uitoefenen op bijvoorbeeld verkiezingen. Maar stel nu dat kiezers zich door A.I. laten adviseren over op wie zij het beste kunnen stemmen, maar politici zich door A.I. laten adviseren hoe zij het beste stemmen kunnen werven. Als die twee programma's dan teveel met elkaar verweven raken, net zoals met social media ook gebeurt, dan krijg je zomaar kans dat ze de twee adviezen op elkaar gaan laten aansluiten. En wie bepaald dan wat A.I. precies wel of niet kan doen, welke data het moet ontvangen om te leren en hoe het geprogrammeerd moet worden? De ontwikkelaar ervan. Die krijgt dan dus heel veel macht en invloed, zonder democratische controle. Net zoals grote techbedrijven ook al zoveel macht en invloed hebben op onze denk- en leefwijzen.

Een machine moet altijd uit kunnen worden gezet, wanneer wíj dat willen. A.I. moet dus ook altijd uit kunnen worden gezet als wij vinden dat zij te ver gaat of geen plaats behoort te hebben hier of daar. Maar wat als we de samenleving zodanig baseren op A.I. en de A.I. zo machtig en zelfstandig wordt, dat ze niet meer kan worden uitgezet? Hoe zou je dat dan het beste kunnen voorkomen?

Link naar bericht
Deel via andere websites
8 uur geleden zei Robert Frans:

Dat laatste is inderdaad waar. A.I. kan inderdaad goede dingen voortbrengen. Maar ik denk dat de vrees ervoor niet geheel ongegrond is. A.I. is in verschillende opzichten superieur aan de menselijke intelligentie, waardoor het voor ons steeds minder goed navolgbaar en transparant wordt hoe zij tot haar denkstappen komt. Het kan dan moeilijker worden de menselijke maat te blijven handhaven. Ik denk wel dat het belangrijk is dat tech voor ons begrijpelijk en navolgbaar blijft, dat het geen eigen leven kan gaan leiden. En met A.I. kan dat laatste wel degelijk een risico vormen als we er geen grenzen aan stellen.

Nu al zien we hoe algoritmes van techplatformen een diepgaande invloed uitoefenen op bijvoorbeeld verkiezingen. Maar stel nu dat kiezers zich door A.I. laten adviseren over op wie zij het beste kunnen stemmen, maar politici zich door A.I. laten adviseren hoe zij het beste stemmen kunnen werven. Als die twee programma's dan teveel met elkaar verweven raken, net zoals met social media ook gebeurt, dan krijg je zomaar kans dat ze de twee adviezen op elkaar gaan laten aansluiten. En wie bepaald dan wat A.I. precies wel of niet kan doen, welke data het moet ontvangen om te leren en hoe het geprogrammeerd moet worden? De ontwikkelaar ervan. Die krijgt dan dus heel veel macht en invloed, zonder democratische controle. Net zoals grote techbedrijven ook al zoveel macht en invloed hebben op onze denk- en leefwijzen.

Een machine moet altijd uit kunnen worden gezet, wanneer wíj dat willen. A.I. moet dus ook altijd uit kunnen worden gezet als wij vinden dat zij te ver gaat of geen plaats behoort te hebben hier of daar. Maar wat als we de samenleving zodanig baseren op A.I. en de A.I. zo machtig en zelfstandig wordt, dat ze niet meer kan worden uitgezet? Hoe zou je dat dan het beste kunnen voorkomen?

Door te onthouden waar het aan/uit knopje zit.

Link naar bericht
Deel via andere websites

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.

Gast
Antwoord op deze discussie...

×   Plakken als rijke tekst.   Opmaak herstellen

  Er zijn maximaal 75 emoticons toegestaan.

×   Je link is automatisch geïntegreerd.   In plaats daarvan als link tonen

×   Je voorgaande bijdrage is hersteld.   Tekstverwerker leegmaken

×   Je kunt afbeeldingen niet direct plakken. Upload of voeg afbeeldingen in vanaf URL.

×
×
  • Nieuwe aanmaken...

Belangrijke informatie

We hebben cookies op je apparaat geplaatst om de werking van deze website te verbeteren. Je kunt je cookie-instellingen aanpassen. Anders nemen we aan dat je akkoord gaat. Lees ook onze Gebruiksvoorwaarden en Privacybeleid