When Banks Claim Your Digital Identity — Under the Banner of Security

 More and more banks now ask for additional digital data: selfies, video ID, device information, location data, and behavioral signals.

The explanation is always the same:

“For your security.”

“To prevent data breaches.”

It sounds reasonable.

But something fundamental is shifting.

Banks are quietly moving from financial service providers to custodians of your digital identity.

Where you once were simply a customer, you are now becoming a data profile: how you type, where you log in from, which device you use, how your face moves during verification. This is known as behavioral biometrics. Officially it exists to prevent fraud. In practice, it creates an increasingly detailed record of your existence.

Not because individual institutions are malicious — but because the system itself is evolving this way.

Here’s the paradox: the more data gets centralized, the greater the damage when it leaks.

You can change a password. You can replace a passport. But you cannot replace your face. ou cannot reset your nervous system.You cannot regenerate your behavioral patterns.

Regulation is often cited as justification. Yes, banks are required to identify customers. But regulation calls for verification — not maximal data extraction. That distinction matters.

What we’re seeing instead is a gradual normalization of expansion: extra checks, “smart security,” default opt-ins. No public debate. No clear moment of consent. Just small screens with large consequences.

We’ve already watched this pattern unfold across tech platforms, including AI rollouts by companies like Meta Platforms — features appearing quietly, framed as convenience, powered by continuous data capture.

This isn’t primarily a technological issue. It’s a question of ownership.Who owns your digital shadow?

Privacy is not a luxury. It is sovereignty.And sovereignty rarely disappears overnight. It erodes through forms. Through updates.Through policies labeled “security.”

My personal boundary is simple: I accept financial services. I accept reasonable identification. But I do not accept an open-ended license on my digital existence.

Maybe it’s time we start asking a different question: not what is allowed —but what is proportional?

Wanneer banken jouw digitale identiteit opeisen — onder het mom van veiligheid

Steeds vaker vragen banken om extra digitale gegevens: selfies, video-ID, apparaatinfo, locatie en gedragsdata. De uitleg is altijd dezelfde: voor jouw veiligheid, om datalekken te voorkomen. Maar hier verschuift iets fundamenteels.

Banken bewegen van financiële dienstverlener naar beheerder van jouw digitale identiteit.

Waar je vroeger gewoon klant was, word je nu een dataprofiel: hoe je typt, waar je inlogt, welk apparaat je gebruikt, hoe je gezicht beweegt tijdens verificatie. Dit heet behavioral biometrics. Officieel bedoeld voor fraudepreventie. In werkelijkheid ontstaat er een steeds rijker dossier van jouw bestaan.

Ook grote partijen zoals ING Group en Rabobank volgen deze internationale lijn — niet uit kwade wil, maar omdat het systeem zo is ingericht.

Het wrange is: hoe meer data wordt gecentraliseerd, hoe groter de schade bij een lek. Je kunt een wachtwoord wijzigen. Je kunt een nieuw paspoort aanvragen. Maar je kunt geen nieuw gezicht aanvragen. Geen nieuw zenuwstelsel.

Wetgeving wordt vaak aangehaald als rechtvaardiging. Maar die vraagt identificatie — geen maximale dataverzameling. Dat verschil is essentieel.

Net als bij AI-functies van Meta Platforms gebeurt dit stap voor stap: extra checks, slimme beveiliging, vinkjes die standaard aan staan. Geen debat. Geen grote aankondiging. Alleen kleine schermpjes met grote gevolgen.

De echte vraag is niet technologisch. Ze is existentieel: wie bezit jouw digitale schaduw?

Privacy is geen luxe. Het is soevereiniteit. En die verdwijnt zelden met een klap — maar via formulieren, updates en zogenoemde veiligheidsmaatregelen.

Mijn grens is simpel: ik accepteer dienstverlening. Ik accepteer redelijke identificatie. Maar geen open eind-licentie op mijn digitale bestaan.

Misschien wordt het tijd dat we opnieuw vragen: niet wat mag, maar wat is proportioneel?

Data farming: when convenience quietly becomes ownership

Lately, a new icon suddenly appeared on my WhatsApp home screen.

No announcement. No explicit consent. Just… there.

An AI assistant from Meta Platforms.

It looks harmless: an extra button, a smart helper.

But it points to something much bigger: data farming.

Data farming isn’t just about collecting information.

It’s about turning our conversations, searches, preferences, and behaviors into commodities.

Not once.

Continuously.

And usually quietly.

We live in a time where:

– features are added “automatically”

– opting out is often harder than opting in

– updates happen server-side, outside your personal settings

– AI tools appear without clear explanations of what is actually being stored

That’s not a conspiracy theory.

That’s the business model.

Platforms like WhatsApp and LinkedIn don’t primarily exist to help us — they exist to collect, analyze, and monetize data.

The real question isn’t:

“Is AI useful?”

The real question is:

who owns the context of your life?

Privacy isn’t a luxury.

It’s autonomy.

And autonomy rarely disappears with a bang.

It fades through small icons.

Through defaults.

Through silent updates.

My personal rule is simple:

If something appears without my explicit consent,

then it doesn’t belong to me.

Maybe it’s time we all take a closer look at what we use “for free” —

and what we quietly give in return.