Fairwords, AI ile işyeri tacizini önlediğini iddia ediyor, ancak gerçek daha karmaşık

In: Social Media


Transform 2022’ye katılamadınız mı? İsteğe bağlı kitaplığımızdaki tüm zirve oturumlarına şimdi göz atın! Buraya bak.


İşyerinde taciz, tüm geçmişlere, cinsiyetlere, cinselliklere ve etnik kökenlere sahip çalışanları etkiler, ancak orantısız bir şekilde az temsil edilen gruplardaki çalışanları etkiler. tarafından bir 2018 anketi Sokak Tacizini Durdurun Kadınların %81’inin hayatları boyunca tacize uğradığını gösterdi. Ve binaen UCLA Hukuk Okulu araştırmasına göre, LGBTQ çalışanlarının yarısı kariyerlerinin bir noktasında iş ayrımcılığına maruz kaldı.

Pandemi sırasında evden çalışma düzenlemeleri bu eğilimi yavaşlatmadı ya da tersine çevirmedi – hatta hızlandırdı. Sonuçları 2021’de yayınlanan TalentLMS ve The Purple Campaign tarafından yapılan bir anket, dört yanıtlayandan biri sağlık krizlerinin başlangıcından bu yana video konferans, e-posta veya metin mesajları yoluyla çevrimiçi olarak istenmeyen cinsel davranışlar yaşadı.

Katılan herkes için duygusal sıkıntının ötesinde, şirketlerin kötüye kullanımı önleme ve ele alma konusunda dolar ve sent motivasyonu var. Cinsel taciz, onu deneyimleyen çalışanlarda kalıcı hasara neden olarak daha yüksek ciroya, daha düşük üretkenliğe ve artan devamsızlık ve hastalık iznine yol açar. Deloitte tahminler işyerinde cinsel tacizin ortalama 2,6 milyar dolarlık üretkenlik kaybına veya mağdur başına 1.053 dolara mal olması.

Sosyal medyanın oyun kitabından bir sayfa ödünç alan, nispeten yeni bir girişim ürünü, potansiyel olarak sorunlu mesajları çalışanlara ulaşmadan işaretlemek için filtreler, algoritmalar ve diğer araçların bir kombinasyonundan yararlanan sistemler geliştiriyor. Örneğin, FairwordsFintop Capital liderliğindeki bir dizi A turunda bugün 5,25 milyon dolar toplayan . Ancak bazı uzmanlar, bu platformların çalışan gözetimini normalleştirme riski taşıdığını ve kötüye kullanımı azaltma misyonlarını karmaşıklaştırdığını söylüyor.

Etkinlik

MetaBeat 2022

MetaBeat, 4 Ekim’de San Francisco, CA’da metaverse teknolojisinin tüm endüstrilerin iletişim kurma ve iş yapma şeklini nasıl değiştireceği konusunda rehberlik sağlamak için düşünce liderlerini bir araya getirecek.

Buradan Kaydolun

Kötüye kullanım amaçlı dili işaretleme

Fairwords, rakipleri CommSafe AI ve Aware gibi, çalışanların Slack, Microsoft Teams, Facebook Messenger, Skype, Zoom ve e-posta gibi işbirliği platformları aracılığıyla gönderdiği mesajları taramak için AI kullanır. Şirketin yazılımı masaüstlerinde çalışır ve siber zorbalık veya cinsel taciz kategorilerine girebilecek kelimeler ve ifadeler gibi “uyumsuz” dilleri algılar. Fairwords, muhtemelen işyeri politikalarına ters düşen bir dili tespit ettiğinde, dilin “işletmeler ve kariyerler için nasıl zararlı olduğuna” dair gerçek dünyadan örnekler gösteriyor.

Arka uçta yöneticiler, belirli ihlal türleri için Fairwords’e politikalar ekleyebilir. Şirket, yazılımının rüşvet ve yolsuzluk, gizli anlaşma ve ayrımcılık belirtileri de arayabileceğini iddia ediyor. Fairwords, zaman içindeki iletişim eğilimlerini ve mesajlarını göndermeden önce revize eden çalışanların yüzdesini gösteren bir analiz panosu aracılığıyla iş gücü genelinde ihlalleri ölçmeye çalışır.

“Fairwords, analiz edilen kelime sayısı, işaretlenen kelime sayısı, 30 gün içinde tekrarlanan işaretlerin yüzdesi, bir kereden fazla tekrarlanan işaretlerin yüzdesi gibi bilgileri gösteren anonim panolar sağlayarak C-suite uyumluluğuna ve İK liderlerine iletişim kültürlerinin sağlığını anlamalarına yardımcı olur. Bir Fairwords sözcüsü VentureBeat’e e-posta yoluyla 30 gün içinde, kullanıcı başına ortalama işaretler, dönem başına en iyi işaretler ve en çok işaretlenen uygulamalar” dedi. “Gösterge panoları, kuruluş liderlerinin kuruluşlarında ne tür bir dil kullanıldığını, bu dili nasıl kategorize edeceklerini (taciz, ayrımcılık, zorbalık vb.) ve insanların iletişim kurmak için kullandıkları uygulamaları anlamalarına yardımcı olabilir.”

Fairwords, çözümü, hangi kelimelerin veya ifadelerin en sık işaretlendiğini ve hangi iletişim kanallarının en kötü suçlu olduğunu görmenin yanı sıra yetkisiz sohbet uygulamalarını tespit etmenin bir yolu olarak sunuyor. Ancak şirket, topladığı verileri anonimleştirdiğini iddia etse de, bazı çalışanlar tuş vuruşlarını analiz eden yazılımlara karşı temkinli davranabilir.

“Fairwords, önce çalışanları eğitmek, onlara yazarken kapsayıcı, uyumlu ve adil iletişimler yazmalarına yardımcı olmak için anında geri bildirim ve eğitim sağlamak için oluşturulmuştur. Misyonumuz, yazılı iletişimin doğasını ve kalitesini geliştirerek şirket kültürlerini yükseltmek ve ürünümüzün, çalışanların onunla doğrudan etkileşime girebilmesi için inşa edildiğini söyledi.

Şirketler, belirli türdeki politika ihlallerini izleyen Fairwords’e modüller ekleyebilir.

2021 ExpressVPN’e göre anket, çalışanların %59’u işveren gözetimine karşı temkinliyken, %43’ü ABD’de büyük ölçüde yasal olan işyeri izleme yazılımının güven ihlali olduğuna inanıyor. Gizlilikle ilgili endişelerin ötesinde, bunun bir nedeni, şirketlerin genellikle çalışanları gözetim yazılımı kullandıkları konusunda uyarmamaları olabilir. Digital.com yakın zamanda bulundu ders çalışma işletmelerin %14’ü izleme faaliyetleri hakkında personele bilgi vermemiştir.

Fairwords sözcüsü, platformun anonim bir şekilde veri topladığını ve bireylere karşı genel olarak bir organizasyon hakkında bilgi gösterdiğini iddia ediyor. “Bizim olmadığımız gözetim ürünleri, bireyleri izler ve çalışanlara geri bildirim veya destek sağlamak için oluşturulmamıştır ve genellikle birilerinin yanlış bir şey yaptığını ‘yakalayana’ kadar çalışanlarla paylaşılmazlar” diye eklediler. “Genel olarak iyileştirme yaratmak için proaktif ve şeffaf bir yaklaşıma inanıyoruz.”

Yine de bazı uzmanlar, Fairwords gibi yazılımların – gözetimi sağlamaktan suçlu olsun ya da olmasın – düzgün ve şeffaf bir şekilde uygulanırsa bir fark yaratabileceğini söylüyor.

“Çalışanların mahremiyet hakları vardır ve şirketler, çalışanlarının işle ilgili iletişimlerini izleyip izlemedikleri konusunda şeffaf olmalıdır… [But] Fairwords gibi platformlar, insanları işyerlerinde kapsayıcı ve adil bir dil kullanmaya duyarlı hale getirmek ve eğitmek için harika bir araç olabilir”, San Diego, California Üniversitesi’nde doktora öncesi araştırmacı ve işyerinde taciz üzerine çalışmaların ortak yazarlarından Nabamallika Dehingia. Fairwords gibi yapay zeka teknolojileri, [other] çalışanların saldırgan veya kötüye kullanım amaçlı dijital iletişimde bulunmamalarını sağlamak için politikalar.”

South Carolina Üniversitesi’nde sosyal medya ve siyaset alanında uzman doçent olan Amir Karami, bu tür araçların olumlu bir kültürü teşvik ederek, çalışanları eğiterek ve şirketlerin çalışma alanlarının ne kadarının güvenli olduğunu belirlemelerine yardımcı olarak faydalı olabileceğini kabul ediyor. Ancak potansiyel olarak istenmeyen veri toplama gibi ortaya koydukları sorunlara da dikkat çekiyor.

Karami, VentureBeat’e e-posta yoluyla “İlk olarak, platformlar kişisel veriler toplarsa ve çalışanlar verilere kimin eriştiğini bilmiyorsa, bu korku yaratabilir ve şirkete olan güven seviyesini azaltabilir” dedi. “İkincisi, çalışanlar verilerin ceza için kullanılabileceğini düşünebilir. Üçüncüsü, bir çalışan platformlar tarafından tanınmayan uygunsuz bir kelime kullanırsa, bu kelimeyi kullanmanın uygun olduğunu varsayabilir. Dördüncüsü, platformlar, daha düşük iş memnuniyetine ve çalışana yol açan ve çalışanların elde tutulmasını azaltan sürekli izleme stresi yaratabilir.”

Kusurlar ve anlamlı değişiklik

Zorluklardan biri, önyargının sisteme girmesini önlerken saldırgan dili işaretlemektir.

2019 yılında ders çalışma Washington Üniversitesi’nden bilim adamları, AI’nın Afro-Amerikan İngilizcesi (AAE) lehçesindeki – ABD’deki birçok Siyah insan tarafından konuşulan bir lehçe – ifadeleri, genel Amerikan İngilizcesi eşdeğerlerinden daha zehirli olarak etiketleme olasılığının daha yüksek olduğunu buldular. AAE hoparlörler tarafından toksik değildir. Yapay zeka destekli, toksisite tespit eden sistemlerin diğer denetimleri, “queer” gibi geri kazanılmış hakaretleri kullanan nefret söylemini tanımakta zorlandıklarını buldu. Örneğin, bir noktada nefret söylemi tespit sistemleri Meta Kullanılmış Facebook’ta, beyaz insanları diğer demografik gruplara yönelik saldırılardan daha fazla aşağılayan yorumları agresif bir şekilde tespit etti.

ayrıca var kanıt AI’nın, özellikle eksik karakterler, karakterler arasına eklenen boşluklar ve kelimeler yerine sayıların olduğu yazımlar olduğunda, bir insanın kolayca tespit edebileceği toksik metinleri gözden kaçırdığını önermek. Fairwords ise algoritmalarını “sürekli iyileştirmek” ve arka uç sistemlerini özelleştirmeyi kolaylaştırmak için çalıştığını söylüyor.

Sözcü, VentureBeat’e “Fairwords tespiti şu anda önceden eğitilmiş, patentli doğal dil işleme tabanlı modeller kullanıyor” dedi. “Kısa bir süre sonra, tespit etkinliğini daha da artırmak için hem toksik dil için kamu kaynaklı eğitim verilerini hem de kullanıcı geri bildirimi (döngüdeki insan olarak adlandırılır) ile müşteri verilerini kullanan güncellemeler sunacağız… [currently] Modelleri eğitmeye yardımcı olması için anonimleştirilmiş müşteri verilerini kullanın; bu, bildirimlerin nedenine ilişkin sınıflandırmalarla doğru olmadığını belirttiklerinde son kullanıcılardan gelen geri bildirimleri içerir. Bu, analitiklerin alana özgü jargona ve değişen iletişim davranışına uyum sağlamasına yardımcı olur.”

Bir AI sisteminin doğruluğundan bağımsız olarak Dehingia, yazılımın tek başına işyeri tacizine veya kötüye kullanımına cevap olmadığı konusunda uyarıyor. Bunun yerine, “koruyucu politikalar” ve “kapsayıcılık ve çeşitlilik için güçlü önlemler” yoluyla tacizin önlenmesine öncelik veren “daha ​​büyük normatif değişimler” gerektirdiğini söylüyor.

“… bu konulardaki gelişmeleri ve geriye gidişleri izlemek için verilere ihtiyacımız var ve eğitmek üzere tasarlanmış platformlar, kendi etkilerini değerlendirmek için en uygun platformlar olmayabilir… Şirketler [also] Yukarıdan aşağıya (çeşitliliğe öncelik veren liderlik) ve aynı zamanda çalışanlarının işyerini güvenli bir ortam haline getirme konusunda geri bildirim ve önerilerde bulunmalarına izin veren katılımcı bir kapsayıcılık ve çeşitlilik kültürü geliştirmesi gerekiyor, ”dedi Dehingia. “Temsil, özellikle üst düzey veya liderlik rollerinde önemlidir… Tacizi caydıran ve kadınları ve ırksal ve diğer sosyal azınlık gruplarına mensup bireyleri koruyan kurumsal politikalar uygulamaya konulmalıdır.”

VentureBeat’in misyonu teknik karar vericilerin dönüştürücü kurumsal teknoloji ve işlemler hakkında bilgi edinmeleri için dijital bir şehir meydanı olmaktır. Brifinglerimizi keşfedin.

Bir cevap yazın

Ready to Grow Your Business?

We Serve our Clients’ Best Interests with the Best Marketing Solutions. Find out More

How Can We Help You?

Need to bounce off ideas for an upcoming project or digital campaign? Looking to transform your business with the implementation of full potential digital marketing?

For any career inquiries, please visit our careers page here.
[contact-form-7 404 "Bulunamadı"]