Podcast 07.10.2021 3 min. czytania Dźwięk Image Sposób, w jaki wielkie platformy dobierają reklamy do użytkowników, z pozoru jest bardzo prosty: reklamodawca zaznacza, do kogo chce targetować komunikat, a platforma wyświetla treści w najbardziej zaangażowanych grupach. Jednak pomiędzy zleceniem reklamy, a zainteresowaniem produktem zawsze pojawia się człowiek, który interesuje się treściami. Wszystko idzie dobrze, jeśli tylko człowiek dostaje dopasowane do siebie treści, ale co się dzieje, kiedy reklamy zaczynają niepokoić, denerwować, a nawet podkręcać lęki i problemy psychiczne?O badaniu algorytmów traumy rozmawiamy z dr. Piotrem Sapieżyńskim - badaczem z Northeastern University w Bostonie, zajmującym się audytowaniem algorytmów, weryfikowaniem i mierzeniem potencjalnej szkody, jakie komercyjne produkty oparte na sztucznej inteligencji mogą wyrządzić zarówno na skalę społeczną, jak i pojedynczym użytkownikom.Czy podobna sytuacja do tej, opisanej w eksperymencie zdarzyła się również tobie? Czy treści sponsorowane na Facebooku lub innych platformach internetowych mają na ciebie negatywny, krzywdzący wpływ? Wyślij nam swoją historię, nie upublicznimy jej bez twojej zgody: https://crm.panoptykon.org/algorytmy-traumy-twoja-historiaOdsłuchaj, dodaj do ulubionej aplikacji przez RSS lub obejrzyj na YouTube'ie lub Vimeo.Na skróty:00:01 Wprowadzenie04:53 Skąd Facebook wie, jakie reklamy nam pokazać?08:39 Eksperyment kontrolowania “zainteresowań”17:14 Rola reklamodawcy w sponsorowaniu treści23:14 Reakcja Facebooka29:00 Dyskryminacja w reklamie na Facebooku39:13 Czy Facebook może oddać kontrolę użytkownikom i użytkowniczkom?46:25 Subskrypcja na algorytm52:25 Ciężkie życie naukowcaDo poczytania:Panoptykon: Algorytmy traumy. Sprawdziliśmy, czy możesz kontrolować reklamy na FacebookuFinancial Times: Time to turn off Facebook’s digital fire hose Spider’s Web+: Masz swoje cichutkie, ukryte obawy? Facebook sprytnie je odkryje i podsunie takie reklamy, by zmieniły się w lękiWall Street Journal: Inside TikTok's Algorithm: A WSJ Video InvestigationDiscrimination through Optimization: How Facebook's Ad Delivery Can Lead to Biased Outcomes Propublica: Dozens of Companies Are Using Facebook to Exclude Older Workers From Job AdsTim Hwang: Subprime Attention CrisisPodobają Ci się nasze podcasty? Pomóż nam dalej tworzyć wartościowe treści. Wpłać darowiznę na konto Fundacji Panoptykon i przekaż 1,5% podatku (KRS: 0000327613) Audio file Aleksandra Iwańska Autorka Temat algorytmy Poprzedni Następny Newsletter Otrzymuj informacje o działalności Fundacji Twoje dane przetwarza Fundacja Panoptykon w celu promowania działalności statutowej, analizy skuteczności podejmowanych działań i ewentualnej personalizacji komunikacji. Możesz zrezygnować z subskrypcji listy i zażądać usunięcia swojego adresu e-mail. Więcej informacji o tym, jak przetwarzamy twoje dane i jakie jeszcze prawa ci przysługują, w Polityce prywatności. Zapisz się Zapisz się Akceptuję Regulamin usługi Leave this field blank Zobacz także Artykuł Jeśli nie big tech, to co? Manifest People vs Big Tech Ruch People vs Big Tech opublikował manifest, w którym wzywa do „otwarcia big techów”. Chodzi o uniezależnienie naszej cyfrowej infrastruktury od kilku globalnych korporacji. 30.09.2024 Tekst Artykuł Ryzyko wykalkulowane. Analizujemy raport TikToka Czym jest TikTok? Dla jednych to platforma kreatywna, dla innych – uzależniająca profilująca aplikacja do szpiegowania i robienia Europejkom i Europejczykom wody z mózgu. A jakie zagrożenia związane z funkcjonowaniem platformy widzą jej właściciele? I co robią, żeby je ograniczać? 10.01.2025 Tekst Podcast Zdradzi cię „profilowe”. Rozmowa z Michałem Kosińskim Ile prawdy o człowieku kryje się w korelacjach statystycznych, które pokazują badania Michała Kosińskiego? Czy te same zależności potwierdziłyby się poza przebadaną przez Kosińskiego grupą osób aktywnych na portalach społecznościowych i randkowych, które dobrowolnie ujawniły swoją afiliację… 25.02.2021 Dźwięk