J'ai toujours pensé qu'au lieu d'un bestiaire alphabétique avec des alligators, des ours et des chats, nous devrions enseigner aux enfants la psychofaune et les algorithmes, mais personnifiés, nommés et illustrés par des exemples. A comme « Attention Harvester », B comme « Black Box », C comme « Clickbait ». Cela reflète fidèlement les types de prédateurs qu'ils rencontreront réellement.
Finalement, les consommateurs semblent saisir le concept général après qu'il ait été martelé dans une zone donnée, mais même moi, aussi analytique et technique que je sois, je sous-estime souvent l'absurde pression sélective qui entre en jeu dans les algorithmes les plus redoutables.
Contexte : Je me demandais comment, dans de nombreuses applications de jeux et de paris bien financées, les meilleures IA/adversaires ne sont pas simplement optimisés pour gagner ou perdre, mais suivent une trajectoire parfaitement optimisée : vous faire croire que vous allez perdre, puis que vous allez gagner… pour finalement vous faire perdre de justesse.