Biometrie en Privacy



Irisherkenning = biometrische technologie die je identificeert op basis van je unieke oogpatroon.

Irisherkenning. Je oog als toegangscode.

Het klinkt futuristisch, maar het is al realiteit.

Op luchthavens, in beveiligde omgevingen en steeds vaker in digitale identificatiesystemen.

Waar we gewend zijn aan wachtwoorden en pincodes, verschuift het langzaam naar iets anders: je lichaam zelf als sleutel.

Je iris — het gekleurde deel van je oog — is uniek. Nauwkeuriger dan een vingerafdruk en vrijwel niet te vervalsen. Dat maakt het efficiënt, snel en aantrekkelijk voor organisaties die zekerheid willen.

Maar juist daar begint het interessante deel. Want een wachtwoord kun je veranderen. Een pas kun je blokkeren. Maar je iris? Die draag je altijd bij je.

En als die eenmaal is vastgelegd in een systeem, ontstaat er een andere vraag:

Wie beheert die data? 

En de volgende:

Waar wordt die opgeslagen? 

Hoe goed is die beveiligd? 

En wat gebeurt er als die informatie in verkeerde handen komt?

We hebben het hier niet over “data” in algemene zin. We hebben het over iets wat direct aan jou gekoppeld is — en dat niet te vervangen is.

Ik merk dat dit precies zo’n technologie is waar weinig bij wordt stilgestaan.

Het voelt logisch, efficiënt en veilig. Maar de vraag is niet alleen óf het werkt.

De vraag is: onder welke voorwaarden we dit willen gebruiken en wij onze data willen vrijgeven.  

Want hoe slimmer en nauwkeuriger technologie wordt, hoe belangrijker het wordt om na te denken over controle en verantwoordelijkheid.

Niet achteraf.

Maar VOORAF.

JOAN D. MULDER, mr


🧠 International AI Safety Report 2026

🧠 International AI Safety Report 2026 — uitgebreide samenvatting

1. 🎯 Doel van het rapport

Het rapport is gemaakt om één ding te doen:

Beleidsmakers helpen begrijpen wat er op ons afkomt met AI — vóórdat het te laat is.

Het is dus geen technisch paper, maar een strategisch waarschuwingsdocument.

2. ⚙️ Waar staan we nu met AI?

Volgens het rapport zitten we in een fase waarin AI:

snel algemener wordt (niet meer één taak, maar meerdere)

steeds beter wordt in taal, redeneren en plannen

vaker wordt ingezet in echte systemen (bedrijven, overheid, infrastructuur)

👉 Belangrijk punt:

We zitten niet meer in de experimentele fase — AI zit al in de praktijk. Ik corrigeer AI hier zelf ook regelmatig op.

3. 🚀 Wat verandert er echt?

Van tool → naar systeem

AI is niet langer:

een hulpmiddel (zoals een calculator)

Maar wordt:

een actieve speler in processen

Voorbeelden:

AI die beslissingen voorbereidt of neemt

AI die workflows automatiseert

AI die andere systemen aanstuurt

👉 Dat is een fundamentele verschuiving.

4. ⚠️ De kernrisico’s (dieper uitgelegd)

A. Gebrek aan controle (alignment probleem)

We willen dat AI doet wat wij bedoelen.

Maar:

AI optimaliseert op wat je vraagt

niet per se op wat je bedoelt

👉 Kleine mismatch → grote gevolgen op schaal

B. Onvoorspelbaar gedrag

Geavanceerde modellen:

vertonen gedrag dat niet expliciet geprogrammeerd is

reageren anders in nieuwe situaties

👉 Dit maakt testen en veiligheid lastig

C. Schaal = risicoversterker

Wat vroeger klein was, wordt nu massaal:

1 fout → miljoenen gebruikers

1 aanval → wereldwijd effect

👉 AI maakt impact exponentieel

D. Misbruik en dual-use

Alles wat nuttig is, kan ook misbruikt worden:

overtuigende nepcontent

automatisering van cyberaanvallen

manipulatie van publieke opinie

👉 Toegang wordt breder → controle wordt moeilijker

E. Verlies van menselijk toezicht

AI neemt taken over die eerder:

door mensen werden gecontroleerd

door mensen werden begrepen

👉 Gevolg:

mensen zitten minder “in de loop”

F. Concentratie van macht

AI vereist:

data

rekenkracht

talent

👉 Dit ligt bij een kleine groep partijen

Gevolg:

geopolitieke spanning

afhankelijkheid

minder transparantie

G. Systeemrisico’s

AI wordt ingebouwd in:

energie

transport

gezondheidszorg

financiële systemen

👉 Problemen kunnen zich verspreiden als een netwerk

5. 🔬 Waarom dit moeilijk op te lossen is

Het rapport is hier vrij eerlijk over.

Probleem 1: We begrijpen AI niet volledig

modellen zijn “black boxes”

gedrag is niet altijd uitlegbaar

Probleem 2: Ontwikkeling gaat sneller dan regelgeving

technologie → maanden

wetgeving → jaren

Probleem 3: Internationale samenwerking is lastig

landen hebben verschillende belangen

concurrentie speelt mee

6. 🧭 Wat stellen ze voor?

Geen simpele oplossing, maar een richting:

✔️ Meer onderzoek naar AI-veiligheid

beter begrijpen hoe modellen werken

testen op extreme scenario’s

✔️ Evaluaties vóór deployment

niet alleen bouwen → ook veiligheid toetsen

vergelijkbaar met medicijnen of vliegtuigen

✔️ Monitoring na uitrol

systemen blijven volgen

snel kunnen ingrijpen

✔️ Internationale samenwerking

standaarden

informatie delen

gezamenlijke regels

✔️ Focus op “frontier AI”

de meest geavanceerde systemen

daar zitten de grootste risico’s

7. 📌 Wat ze NIET zeggen (maar wel impliciet duidelijk is)

We hebben geen volledige controle

We weten niet exact waar de grens ligt

En:

We bouwen terwijl we leren — niet andersom

8. 🧩 Eerlijke conclusie

Ik merk dat ik dit zelf ook altijd moet blijven checken.

Het rapport komt hier op neer:

AI is waarschijnlijk de meest ingrijpende technologie van deze tijd

— maar we zitten nog in een fase van onvolledig begrip en beperkte controle

9. 🔑 Samenvatting in 5 regels

AI wordt krachtiger en autonomer

We begrijpen het gedrag niet volledig

Risico’s nemen toe door schaal en integratie

Controle en governance lopen achter

Er is nog geen sluitende oplossing — alleen richting


EU-motorverzekeringsrichtlijn het internationale Green Card-systeem

1. EU-regel: verzekering geldt in de hele EU
Als een auto in een EU-land verzekerd is, moet de verplichte aansprakelijkheidsverzekering dekking bieden in de hele EU. 

Dat betekent dat je met een Nederlandse verzekering ook in Italië, Frankrijk, Duitsland enz. kunt rijden zonder een nieuwe verzekering af te sluiten.
Dit geldt evengoed voor:
Duitse auto’s
Franse auto’s
Belgische auto’s
Zwitserse auto’s (via het Green Card-systeem)
Britse auto’s
Het basisprincipe is hetzelfde ongeacht herkomst EU motorvoertuig. 

2. Het voertuig hoort verzekerd te zijn waar het “normaal gestald” is. Juridische nuance:
De Europese regels gaan ervan uit dat een voertuig verzekerd is in het land waar het “normally based” is — dus waar het voertuig normaal staat of wordt gebruikt. 


3. Het Green Card-systeem
Naast de EU bestaat er ook het Green Card-systeem, een internationaal verzekeringssysteem met ongeveer 50 landen.

Dat systeem zorgt ervoor dat:
een buitenlandse auto automatisch als verzekerd wordt erkend
slachtoffers in het land van het ongeval toch schadeloos kunnen worden gesteld
Het is dus vooral een beschermingsmechanisme voor slachtoffers.

4. Verzekeringen gekoppeld zijn aan:
het registratieland van de auto
het risicoland
de woonplaats van de eigenaar
Als die drie structureel uit elkaar lopen, wordt het juridisch ingewikkeld.

5. Conclusie
In feite geldt overal hetzelfde principe:
je mag met een buitenlandse auto tijdelijk in een ander land rijden
je verzekering blijft geldig
maar als de auto structureel in een ander land wordt gebruikt, hoort hij daar ook geregistreerd en verzekerd te worden
Dat is niet specifiek Nederlands of Italiaans — dat is een algemeen Europees systeem.

Het probleem ontstaat niet bij de grens. Het ontstaat pas wanneer een verzekeraar moet bepalen waar een auto eigenlijk ‘thuishoort’.


Behoud schadevrije jaren.
In Nederland zijn schadevrije jaren gekoppeld aan een centrale database. In veel andere landen bestaat zo’n systeem niet of werkt het anders. Daardoor kunnen verzekeraars buitenlandse historie moeilijk controleren, en daarom zijn ze soms terughoudend. 

Vraag vóór het opzeggen van je oude verzekering altijd een “no-claim verklaring” / schadeverledenverklaring.
Dat document is essentieel om je korting mee te nemen naar een nieuwe verzekeraar. 

Samengevat
• Je begint meestal niet helemaal opnieuw.
• Maar je behoudt ook niet automatisch dezelfde korting.
• Het hangt af van de verzekeraar en het land.

Nederlandse auto in Italië: wanneer ontstaat het echte juridische risico?

 Steeds meer Nederlanders hebben een huis in Italië. Ze rijden erheen met hun Nederlandse auto, blijven er langere tijd, en gaan daarna weer terug naar Nederland. Op het eerste gezicht lijkt dat eenvoudig: de auto heeft een Nederlands kenteken en een Nederlandse verzekering, dus alles is geregeld.

Toch ligt hier een juridisch interessante – en soms risicovolle – grens. Het onderwerp raakt namelijk drie verschillende rechtsgebieden tegelijk: verzekeringsrecht, EU-mobiliteit en nationale registratieplicht.

Veel mensen ontdekken dat pas wanneer er iets misgaat.

De basisregel: rijden in het buitenland mag

Binnen de Europese Unie mag je met een Nederlandse auto gewoon in Italië rijden. De Nederlandse autoverzekering biedt in de regel dekking in alle EU-landen. Dat staat meestal ook op de groene kaart.

Voor vakantie of tijdelijk verblijf levert dat dus geen probleem op.

Maar zodra een auto niet meer tijdelijk in het buitenland is, begint het juridisch ingewikkelder te worden.

Waar het juridisch spannend wordt

Verzekeraars gaan er bij een autoverzekering meestal van uit dat:

de auto hoofdzakelijk gestald is in Nederland

de bestuurder in Nederland woont

en buitenlandse ritten tijdelijk zijn

Als een auto feitelijk langdurig of permanent in Italië staat, kan de verzekeraar de vraag stellen waar het risico zich werkelijk bevindt.

In verzekeringsrecht wordt vaak gekeken naar de plaats waar een voertuig “normaal gestald” is. Dat begrip kan belangrijk worden wanneer er schade ontstaat.

De Italiaanse kant van het verhaal

Italië kent daarnaast eigen regels over kentekenregistratie.

Wie resident wordt in Italië mag in principe niet langdurig blijven rijden met een buitenlands kenteken. In dat geval moet de auto worden geregistreerd in Italië en een Italiaans kenteken krijgen.

Maar veel tweede-huisbezitters vallen niet onder deze regel, omdat zij officieel resident blijven in Nederland.

Daardoor ontstaat een grijs gebied:

Nederlands kenteken

Nederlandse verzekering

auto die vaak of langdurig in Italië staat

Formeel kan dat toegestaan zijn, maar het is niet altijd zonder risico.

Wanneer het probleem meestal zichtbaar wordt

In de praktijk ontstaan discussies zelden bij een verkeerscontrole.

Ze ontstaan meestal na een ongeval of schadeclaim.

Op dat moment kan een verzekeraar onderzoeken:

waar de auto normaal wordt gebruikt

waar de auto gestald staat

en waar de eigenaar feitelijk woont

Als blijkt dat de auto feitelijk langdurig in een ander land verblijft dan waarvoor de verzekering bedoeld was, kan dat tot discussie leiden over dekking.

Wat betekent dit voor tweede-huisbezitters?

Voor Nederlanders met een huis in Italië betekent dit vooral dat het verstandig is om stil te staan bij drie vragen:

Waar ben je officieel resident?

Waar staat de auto het grootste deel van het jaar?

Wat staat er precies in de polisvoorwaarden van je autoverzekering?

In veel situaties is er niets aan de hand. Maar wanneer een auto structureel in een ander land wordt gebruikt dan waar hij verzekerd is, kan het juridisch ingewikkelder worden dan mensen denken.

Een onderwerp op het snijvlak van meerdere regels

Dit onderwerp laat goed zien hoe nationale regels en Europese mobiliteit elkaar raken. Een auto kan probleemloos door Europa rijden, maar verzekering, registratie en residentie blijven nationale systemen.

Juist op dat snijvlak ontstaan de vragen die veel tweede-huisbezitters herkennen.

En meestal pas wanneer het eigenlijk al te laat is om ze voor het eerst te stellen.


Vervolgartikel: 

Wanneer moet je een Nederlandse auto in Italië op Italiaans kenteken zetten?

Ancestry.com | DNA | Big Pharmaio

 My father had an unusual hobby.

He was a register accountant by profession, but in his spare time he reconstructed our family tree. Not with software, but in archives. Hours behind microfiche readers, scrolling through handwritten church registers, municipal records and fragile documents that were sometimes centuries old.

It required patience, discipline and a certain fascination with detail.

Genealogy today looks very different.

Millions of people explore their ancestry through consumer DNA tests and large online genealogy databases. With a saliva sample and a few clicks, people can discover relatives across continents and reconstruct family histories that once required years of archival work.

It is fascinating technology.

But it also raises an interesting privacy question.

Genetic information is fundamentally different from other personal data. It does not only describe you as an individual. It also reveals information about your parents, siblings, children and future generations.

And in today’s data economy, genetic data has extraordinary value.

Large aggregated DNA databases are extremely valuable for medical research and pharmaceutical development. Patterns in genetic data help researchers identify disease mechanisms, discover drug targets and understand why certain treatments work for some people but not for others.

In other words: the data generated through consumer DNA testing contributes to one of the most valuable biological datasets ever created.

None of this is inherently negative. Medical progress depends on data and research.

But it does raise a simple and important question about awareness.

When people take a DNA test to explore their ancestry, do they fully realize that they are also contributing to a rapidly growing genetic data ecosystem with scientific and commercial value?

Family history once required archives, patience and microfiches.

Today it also requires something else: understanding the value of our data

Waarom sommige mensen voorzichtig zijn met DNA-tests

Bij DNA-tests van bedrijven zoals Ancestry en 23andMe geven mensen een stukje genetische informatie af. Dat heeft voordelen, maar ook een paar punten waar mensen over nadenken.

1. Privacy van je DNA

Je DNA is de meest persoonlijke data die er bestaat.

Bedrijven slaan dit op in hun database. Sommige mensen vinden dat gevoelig, omdat:

gegevens jarenlang bewaard kunnen blijven

ze soms gebruikt worden voor wetenschappelijk onderzoek

databases theoretisch gehackt kunnen worden

2. Politie-gebruik (in sommige landen)

In enkele gevallen zijn DNA-databases gebruikt bij strafonderzoek.

Dat gebeurt vooral via andere sites zoals GEDmatch, waar gebruikers vrijwillig DNA-data kunnen uploaden.

3. Onverwachte familieontdekkingen

DNA-tests kunnen dingen onthullen die families niet wisten, bijvoorbeeld:

een onbekende halfbroer of halfzus

een andere biologische vader

adoptiegeschiedenis

Voor sommige mensen kan dat emotioneel of ingewikkeld zijn.

4. Je deelt ook DNA van familie

Als jij je DNA uploadt, geef je indirect ook informatie over:

ouders

broers/zussen

kinderen


Grote DNA-databases zijn extreem waardevol voor farmaceutische bedrijven. Door miljoenen genetische profielen te analyseren kunnen ze:

genetische varianten koppelen aan ziekten

nieuwe medicijndoelen ontdekken

begrijpen waarom sommige mensen wel of niet op een medicijn reageren

Bedrijven zoals 23andMe hebben bijvoorbeeld onderzoeksdeals gehad met farmabedrijven zoals GlaxoSmithKline.

De data die daarbij wordt gebruikt is meestal geanonimiseerd en geaggregeerd voor onderzoek.

In de meeste landen (zeker in Europa onder General Data Protection Regulation) mogen bedrijven niet zomaar individuen targeten op basis van hun genetische data.

Maar er zijn wel realistische risico’s of discussiepunten:

genetische data kan in theorie invloed hebben op verzekeringen of risicoprofielen

bedrijven kunnen geaggregeerde genetische trends gebruiken voor marktstrategieën

grote DNA-databases versnellen commerciële geneesmiddelontwikkeling

Het echte debat

De kernvraag die vaak wordt gesteld is:

Wanneer mensen een DNA-test doen voor genealogie, realiseren ze zich dan dat hun genetische data ook kan bijdragen aan een enorme commerciële onderzoeksdatabase?

Genetische data is voor onderzoek en farmacie extreem waardevol. Sommige onderzoekers noemen het zelfs de olie van de 21e eeuw, maar dan biologisch.

Joan D. Mulder,  jurist

Joan D. Mulder, mr.

 I’m a legally trained consultant specialized in digital governance and AI & data risk.

I help organizations understand how technology decisions translate into legal exposure, contractual risk, and accountability gaps.

My strength lies in asking the right structural questions — before issues escalate into disputes or compliance problems.

I work remotely with international teams on legal research, contract strategy, and governance frameworks around AI and data use.

AI

 That small lens icon on images. Harmless convenience?

With one click, an image is analyzed.

Objects identified.

Text extracted.

Context interpreted.

Convenient. Efficient.


But it normalizes something: that images are routinely analyzed by AI.

A photo often contains more than we realize: faces, locations, documents, interiors, behavioral context.

The question is not whether visual search is useful. The question is: when does image analysis become the default layer of our online environment?

And how transparent are we about what happens to that data afterwards?

Technology rarely shifts abruptly. It simply becomes normal.

🔶️

Additional Layer: From Interaction to Infrastructure

What begins as a feature gradually becomes infrastructure.

When visual analysis is embedded by default, several structural questions arise:

Is image processing limited to immediate functionality, or does it feed broader machine learning systems?

Is visual interaction treated as behavioral data?

Are images transient inputs, or long-term assets within AI ecosystems?

Does user awareness meaningfully match technical reality?

The normalization of image analysis changes the baseline of digital interaction.

It subtly shifts control from user perception to system capability.

This is not about suspicion. It is about proportionality.

As analytical capacity increases, so should clarity around:

• purpose limitation

• data retention

• secondary use

• model training inputs

• oversight mechanisms


Convenience scales quickly. 

Accountability must scale with it.

The lens icon is small.

But the governance questions it raises are structural.

Google Lens

Recently, a small lens symbol has begun appearing on images across the internet.

With a single click, the image is analyzed.

This functionality — powered by Google Lens from Google — enables object recognition, text extraction, product comparison, and contextual identification.

It is efficient.

It is technically impressive.

It is seamless.

But it also represents something larger.

The Normalization of Image Analysis

When image analysis becomes embedded as a default layer of online interaction, a structural shift occurs.

An image is rarely “just” an image. It may contain:

Faces

Addresses or street signs

License plates

Documents

Interior details

Behavioral context

With one click, that visual information enters an AI analysis environment.

The question is not whether visual search is useful. It clearly is.

The question is what happens next.

Is the image used solely to generate immediate search results?

Is it retained?

Is it used to improve AI models?

Is usage behavior linked to broader profiling?

From Feature to Infrastructure

Technological shifts rarely happen abruptly.

They become normalized through convenience.

A tool introduced as a search enhancement can, over time, become a structural component of data ecosystems.

This is not an argument against innovation.

It is an invitation to consider governance.

When image analysis becomes frictionless, transparency and purpose limitation become more important — not less.

Efficiency does not eliminate the need for clarity.

It increases it.

The lens icon may be small.

The infrastructure behind it is not.

Joan D. Mulder

When Banks Claim Your Digital Identity — Under the Banner of Security

 More and more banks now ask for additional digital data: selfies, video ID, device information, location data, and behavioral signals.

The explanation is always the same:

“For your security.”

“To prevent data breaches.”

It sounds reasonable.

But something fundamental is shifting.

Banks are quietly moving from financial service providers to custodians of your digital identity.

Where you once were simply a customer, you are now becoming a data profile: how you type, where you log in from, which device you use, how your face moves during verification. This is known as behavioral biometrics. Officially it exists to prevent fraud. In practice, it creates an increasingly detailed record of your existence.

Not because individual institutions are malicious — but because the system itself is evolving this way.

Here’s the paradox: the more data gets centralized, the greater the damage when it leaks.

You can change a password. You can replace a passport. But you cannot replace your face. ou cannot reset your nervous system.You cannot regenerate your behavioral patterns.

Regulation is often cited as justification. Yes, banks are required to identify customers. But regulation calls for verification — not maximal data extraction. That distinction matters.

What we’re seeing instead is a gradual normalization of expansion: extra checks, “smart security,” default opt-ins. No public debate. No clear moment of consent. Just small screens with large consequences.

We’ve already watched this pattern unfold across tech platforms, including AI rollouts by companies like Meta Platforms — features appearing quietly, framed as convenience, powered by continuous data capture.

This isn’t primarily a technological issue. It’s a question of ownership.Who owns your digital shadow?

Privacy is not a luxury. It is sovereignty.And sovereignty rarely disappears overnight. It erodes through forms. Through updates.Through policies labeled “security.”

My personal boundary is simple: I accept financial services. I accept reasonable identification. But I do not accept an open-ended license on my digital existence.

Maybe it’s time we start asking a different question: not what is allowed —but what is proportional?

Wanneer banken jouw digitale identiteit opeisen — onder het mom van veiligheid

Steeds vaker vragen banken om extra digitale gegevens: selfies, video-ID, apparaatinfo, locatie en gedragsdata. De uitleg is altijd dezelfde: voor jouw veiligheid, om datalekken te voorkomen. Maar hier verschuift iets fundamenteels.

Banken bewegen van financiële dienstverlener naar beheerder van jouw digitale identiteit.

Waar je vroeger gewoon klant was, word je nu een dataprofiel: hoe je typt, waar je inlogt, welk apparaat je gebruikt, hoe je gezicht beweegt tijdens verificatie. Dit heet behavioral biometrics. Officieel bedoeld voor fraudepreventie. In werkelijkheid ontstaat er een steeds rijker dossier van jouw bestaan.

Ook grote partijen zoals ING Group en Rabobank volgen deze internationale lijn — niet uit kwade wil, maar omdat het systeem zo is ingericht.

Het wrange is: hoe meer data wordt gecentraliseerd, hoe groter de schade bij een lek. Je kunt een wachtwoord wijzigen. Je kunt een nieuw paspoort aanvragen. Maar je kunt geen nieuw gezicht aanvragen. Geen nieuw zenuwstelsel.

Wetgeving wordt vaak aangehaald als rechtvaardiging. Maar die vraagt identificatie — geen maximale dataverzameling. Dat verschil is essentieel.

Net als bij AI-functies van Meta Platforms gebeurt dit stap voor stap: extra checks, slimme beveiliging, vinkjes die standaard aan staan. Geen debat. Geen grote aankondiging. Alleen kleine schermpjes met grote gevolgen.

De echte vraag is niet technologisch. Ze is existentieel: wie bezit jouw digitale schaduw?

Privacy is geen luxe. Het is soevereiniteit. En die verdwijnt zelden met een klap — maar via formulieren, updates en zogenoemde veiligheidsmaatregelen.

Mijn grens is simpel: ik accepteer dienstverlening. Ik accepteer redelijke identificatie. Maar geen open eind-licentie op mijn digitale bestaan.

Misschien wordt het tijd dat we opnieuw vragen: niet wat mag, maar wat is proportioneel?

Data farming: when convenience quietly becomes ownership

Lately, a new icon suddenly appeared on my WhatsApp home screen.

No announcement. No explicit consent. Just… there.

An AI assistant from Meta Platforms.

It looks harmless: an extra button, a smart helper.

But it points to something much bigger: data farming.

Data farming isn’t just about collecting information.

It’s about turning our conversations, searches, preferences, and behaviors into commodities.

Not once.

Continuously.

And usually quietly.

We live in a time where:

– features are added “automatically”

– opting out is often harder than opting in

– updates happen server-side, outside your personal settings

– AI tools appear without clear explanations of what is actually being stored

That’s not a conspiracy theory.

That’s the business model.

Platforms like WhatsApp and LinkedIn don’t primarily exist to help us — they exist to collect, analyze, and monetize data.

The real question isn’t:

“Is AI useful?”

The real question is:

who owns the context of your life?

Privacy isn’t a luxury.

It’s autonomy.

And autonomy rarely disappears with a bang.

It fades through small icons.

Through defaults.

Through silent updates.

My personal rule is simple:

If something appears without my explicit consent,

then it doesn’t belong to me.

Maybe it’s time we all take a closer look at what we use “for free” —

and what we quietly give in return.

 Remote Legal Support (Research & Structuring)

 

CORE PAGE -

Joan D. MULDER, lawyer

Role

Remote Legal Support — Research & Structuring

I support international teams and professionals by structuring, summarising and researching legal and regulatory information, enabling clear and informed decision-making.

I do not provide legal advice and do not act as a legal representative. My work is strictly supportive and informational.


What I Do

  • Structure and summarise legal documents and contracts
  • Identify key issues and factual risk areas
  • Conduct legal and regulatory desk research
  • Translate complex legal information into clear, decision-ready documents

What I Do Not Do (Scope)

  • No legal advice
  • No binding legal interpretation
  • No representation or procedural actions
  • No claims of local legal qualification

All deliverables are intended to support internal or external decision-making.


Example Engagements

1. Short Assignment — Hourly

Contract or Document Review (Quick Scan)

Scope

  • Review and structure provided document(s)
  • Summarise key provisions
  • Identify factual attention points and risk areas

Deliverable

  • 2–3 page structured summary
  • Clear bullet-point overview

Time & Terms

  • 2–4 hours
  • Hourly rate: €45–€65 (excl. VAT)
  • Delivery within 1–2 business days

2. Defined Project — Fixed Fee

Research Memo / Decision Support Document

Scope

  • Define research question
  • Conduct desk research (legislation, guidance, public sources)
  • Structure findings into a clear memo

Deliverable

  • 3–5 page research memo
  • Findings overview
  • Source references
  • Key considerations for next steps

Time & Terms

  • 8–15 hours
  • Fixed fee: €500–€900 (excl. VAT)
  • Turnaround: approximately one week

Working Method

  • Clear scope and time agreement upfront
  • One delivery moment
  • Additional questions or extensions are treated as a new assignment

Practical

  • Fully remote
  • English or Dutch output
  • Suitable for international contexts
  • Rates excl. VAT

🌐

A short assignment can be used to assess fit before engaging in a larger project.

AI is not the problem. Silent opt-ins are.

 Google, Gemini and Consent: Why This Matters

Over the past months, Google has quietly rolled out new AI functionality — including Gemini — across its ecosystem: Gmail, Docs, Drive and more.

What concerns me is not the existence of AI itself.

It’s how it was enabled.

Through product updates, AI features were activated by default, requiring users to manually opt out by changing multiple settings. No clear, explicit consent was requested beforehand.

In other words:

users had to revoke access — rather than grant it.

For many people, this meant discovering Google AI embedded throughout their accounts, analysing content unless they actively disabled it. I did so immediately, because I do not consent to:

automated AI processing of my private communications

broad data collection justified as “product improvement”

cookies and tracking mechanisms beyond what is strictly necessary

This issue is not hypothetical. It is currently at the centre of legal actions in the United States and Europe, where the core question is simple:

Can a company enable AI access to personal data by default — and call silence “consent”?

From a user perspective, this matters deeply.

Consent should be explicit, informed and contemporary — not inherited from decades-old terms of service, nor assumed through inactivity after an update.

I am not anti-technology.

I am pro-choice, pro-privacy and pro-transparency.

If AI is going to touch personal data, the burden should not be on users to hunt through settings to protect themselves. The burden should be on companies to ask — clearly, plainly, and in advance.

Anything else erodes trust.