Sinistru! Această robot a devenit nazist peste noapte

Ultima actualizare:

Utilizatorilor de Twitter nu le-a luat decât o zi să corupă inteligența artificială creată de Microsoft.

În urmă cu o zi, gigantul din Redmond a anunțat lansarea botului de Twitter Tay. Acesta din urmă avea rolul de a înțelege cât mai bine conversațiile, fiind considerat unul dintre cele mai interesante experimente Microsoft. După cum scriu cei de la Verge, cu cât utilizatorii discutau mai mult cu Tay, cu atât robotul devenea mai inteligent. Din păcate, Microsoft se pare că nu a luat în considerare faptul că este vorba despre o rețea socială, iar limbajul folosit de oameni aici uneori lasă de dorit.

Astfel, în scurt timp, oamenii au început să trimită Tweet-uri care mai de care mai ciudate. Iar din cauza faptului că avem de-a face cu o inteligență artificială care repetă ceea ce spun alții, vă imaginați ce a urmat. 

Vezi ce a scris robotul pe Twitter și de ar trebui să fim îngrijorați



Parteneri

image
www.fanatik.ro
image
observatornews.ro
image
iamsport.ro
image
www.antena3.ro
image
www.gandul.ro
image
as.ro
image
playtech.ro
image
www.fanatik.ro
image
www.cancan.ro
image
www.viva.ro
image
www.unica.ro
image
playtech.ro
image
www.stiripesurse.ro
image
www.stiripesurse.ro
image
okmagazine.ro
image
okmagazine.ro
image
historia.ro
image
historia.ro
Youtube, foto shutterstock jpg
masa Craciun jpg
travel 6268605 1280 jpg
Radu Lupu
WhatsApp Image 2025 12 28 at 18 27 08 jpeg
WhatsApp Image 2025 12 28 at 18 26 59 jpeg
bright 1853624 1280 jpg
adevarul jpg
image
actualitate.net
image
actualitate.net