Noticias

¿Las reseñas falsas en internet empeorarán con la IA? / The internet is filled with fake reviews. Here are some ways to spot them

BY HALELUYA HADERO – El surgimiento de herramientas de inteligencia artificial generativa que permiten producir eficientemente reseñas en línea novedosas y detalladas con casi ningún esfuerzo ha colocado a comerciantes, proveedores de servicios y consumidores en un territorio inexplorado, según grupos de vigilancia e investigadores.

Las reseñas falsas han plagado desde hace tiempo muchos sitios web de consumo populares, como Amazon y Yelp. Generalmente, se intercambian en grupos privados de redes sociales entre intermediarios de reseñas falsas y negocios dispuestos a pagar. A veces, dichas reseñas son iniciadas por negocios que ofrecen incentivos como cupones a clientes a cambio de comentarios positivos.

Pero las herramientas de generación de texto infundidas con IA, popularizadas por ChatGPT de OpenAI, permiten a los estafadores producir reseñas más rápidamente y en mayor volumen, según expertos de la industria tecnológica.

La práctica engañosa, que es ilegal en Estados Unidos, se ve durante todo el año pero se convierte en un problema mayor para los consumidores durante la temporada de compras navideñas, cuando muchas personas dependen de las reseñas para ayudarles a comprar regalos.

¿Dónde aparecen las reseñas generadas por IA?

Se encuentran reseñas falsas en una amplia gama de industrias, desde comercio electrónico, alojamiento y restaurantes, hasta servicios como reparaciones del hogar, atención médica y clases de piano.

The Transparency Company, una empresa tecnológica y grupo de vigilancia que utiliza software para detectar reseñas falsas, dijo que comenzó a ver reseñas generadas por IA en grandes números a mediados de 2023 y se han multiplicado desde entonces.

Para un informe publicado este mes, The Transparency Company analizó 73 millones de reseñas en tres sectores: servicios para el hogar, legales y médicos. Casi el 14% de las reseñas eran probablemente falsas, y la empresa expresó un “alto grado de confianza” en que 2,3 millones eran parcial o totalmente generadas por IA.

“Es simplemente una herramienta realmente, realmente buena para estos estafadores de reseñas”, dijo Maury Blackman, un inversor y asesor de startups tecnológicas, quien revisó el trabajo de The Transparency Company y liderará la organización a partir del 1 de enero.

En agosto, la empresa de software DoubleVerify dijo que estaba observando un “aumento significativo” en aplicaciones de teléfonos móviles y televisores inteligentes con reseñas elaboradas por IA generativa. Las reseñas a menudo se utilizaban para engañar a los clientes para que instalaran aplicaciones que podrían secuestrar dispositivos o mostrar anuncios constantemente, dijo la empresa.

El mes siguiente, la Comisión Federal de Comercio (FTC) demandó a la empresa detrás de una herramienta de escritura de IA y generador de contenido llamada Rytr, acusándola de ofrecer un servicio que podría contaminar el mercado con reseñas fraudulentas.

La FTC, que este año prohibió la venta o compra de reseñas falsas, dijo que algunos suscriptores de Rytr usaron la herramienta para producir cientos y quizás miles de reseñas para empresas de reparación de puertas de garaje, vendedores de bolsos y otros negocios.

Es probable que también estén en sitios en línea prominentes

Max Spero, CEO de la empresa de detección de IA Pangram Labs, dijo que el software que utiliza su empresa ha detectado con casi certeza que algunas evaluaciones generadas por IA publicadas en Amazon subieron al tope de los resultados porque eran tan detalladas y parecían bien pensadas.

Pero determinar qué es falso o no puede ser un desafío. Las partes externas pueden quedarse cortas porque no tienen “acceso a señales de datos que indiquen patrones de abuso”, ha dicho Amazon.

Pangram Labs ha realizado detecciones para algunos sitios web prominentes, que Spero se negó a nombrar debido a acuerdos de confidencialidad. Dijo que evaluó Amazon y Yelp de manera independiente.

Muchos de los comentarios generados por IA en Yelp parecían haber sido publicados por individuos que intentaban publicar suficientes reseñas para ganar una insignia “Elite”, que está destinada a hacer saber a los usuarios que pueden confiar en el contenido, dijo Spero.

Max Spero, CEO de la empresa de detección de IA Pangram Labs, dijo que el software que utiliza su empresa ha detectado con casi certeza que algunas evaluaciones generadas por IA publicadas en Amazon subieron al tope de los resultados porque eran tan detalladas y parecían bien pensadas.

Qué están haciendo las empresas

Las empresas prominentes están desarrollando políticas sobre cómo el contenido generado por IA encaja en sus sistemas para eliminar reseñas falsas o abusivas. Algunas ya emplean algoritmos y equipos de investigación para detectar y eliminar reseñas falsas, pero están dando a los usuarios cierta flexibilidad para usar IA.

Portavoces de Amazon y Trustpilot, por ejemplo, dijeron que permitirían a los clientes publicar reseñas asistidas por IA siempre que reflejen su experiencia genuina. Yelp ha adoptado un enfoque más cauteloso, diciendo que sus normas requieren que las reseñas sean totalmente auténticas. 

“Con el reciente aumento en la adopción de herramientas de IA por parte de los consumidores, Yelp ha invertido significativamente en métodos para detectar y mitigar mejor dicho contenido en nuestra plataforma”, dijo la empresa en un comunicado.

La Coalición para Reseñas Confiables — que Amazon, Trustpilot, el sitio de reseñas de empleo Glassdoor y los sitios de viajes Tripadvisor, Expedia y Booking.com lanzaron el año pasado — dijo que aunque los engañadores pueden usar la IA para fines ilícitos, la tecnología también presenta “una oportunidad para contrarrestar a aquellos que buscan usar reseñas para engañar a otros”.

“Al compartir mejores prácticas y elevar los estándares, incluido el desarrollo de sistemas avanzados de detección de IA, podemos proteger a los consumidores y mantener la integridad de las reseñas en línea”, dijo el grupo.

La regla de la FTC que prohíbe las reseñas falsas, que entró en vigor en octubre, permite a la agencia multar a empresas e individuos que participen en la práctica. Las empresas tecnológicas que alojan dichas reseñas están protegidas porque no son legalmente responsables bajo la ley de Estados Unidos por el contenido que publican terceros en sus plataformas.

Las empresas tecnológicas, incluidas Amazon, Yelp y Google, han demandado a intermediarios de reseñas falsas a quienes acusan de vender reseñas falsas en sus sitios. Las empresas dicen que su tecnología ha bloqueado o eliminado una gran cantidad de reseñas sospechosas y cuentas sospechosas. Sin embargo, algunos expertos dicen que podrían estar haciendo más.

“Sus esfuerzos hasta ahora no son suficientes”, dijo Dean de Fake Review Watch. “Si estas empresas tecnológicas están tan comprometidas con eliminar el fraude de reseñas en sus plataformas, ¿por qué soy yo, una persona que trabaja sin automatización, capaz de encontrar cientos o incluso miles de reseñas falsas en cualquier día dado?”

Cómo detectar reseñas falsas generadas por IA

Los consumidores pueden intentar detectar reseñas falsas observando algunas posibles señales de advertencia, según investigadores. Reseñas excesivamente entusiastas o negativas son señales de alerta. El uso de jerga que repite el nombre completo o el número de modelo de un producto es otro posible indicio.

En cuanto a la IA, la investigación realizada por Balázs Kovács, profesor de comportamiento organizacional de Yale, ha mostrado que las personas no pueden distinguir entre reseñas generadas por IA y escritas por humanos. Algunos detectores de IA también pueden ser engañados por textos más cortos, que son comunes en reseñas en línea, dijo el estudio.

Sin embargo, hay algunos “indicios de IA” que los compradores deberían tener en cuenta. Panagram Labs dice que las reseñas escritas con IA suelen ser más largas, altamente estructuradas e incluyen frases y atributos genéricos. Las reseñas también tienden a incluir clichés como “lo primero que me llamó la atención” y “esto fue revolucionario”.

___

Esta historia fue traducida del inglés por un editor de AP con la ayuda de una herramienta de inteligencia artificial generativa.

más aqui https://apnews.com/article/inteligencia-artificial-resenas-falsas-4f06bc9825bd4ba8deb152233c0f7457

The internet is filled with fake reviews. Here are some ways to spot them

BY HALELUYA HADERO – The emergence of generative artificial intelligence tools that allow people to efficiently produce novel and detailed online reviews with almost no work has put merchants, service providers and consumers in uncharted territory, watchdog groups and researchers say.

Phony reviews have long plagued many popular consumer websites, such as Amazon and Yelp. They are typically traded on private social media groups between fake review brokers and businesses willing to pay. Sometimes, such reviews are initiated by businesses that offer customers incentives such as gift cards for positive feedback.

But AI-infused text generation tools, popularized by OpenAI’s ChatGPT, enable fraudsters to produce reviews faster and in greater volume, according to tech industry experts.

The deceptive practice, which is illegal in the U.S., is carried out year-round but becomes a bigger problem for consumers during the holiday shopping season, when many people rely on reviews to help them purchase gifts.

Where are AI-generated reviews showing up?

Fake reviews are found across a wide range of industries, from e-commerce, lodging and restaurants, to services such as home repairs, medical care and piano lessons.

The Transparency Company, a tech company and watchdog group that uses software to detect fake reviews, said it started to see AI-generated reviews show up in large numbers in mid-2023 and they have multiplied ever since.

For a report released this month, The Transparency Company analyzed 73 million reviews in three sectors: home, legal and medical services. Nearly 14% of the reviews were likely fake, and the company expressed a “high degree of confidence” that 2.3 million reviews were partly or entirely AI-generated.

“It’s just a really, really good tool for these review scammers,” said Maury Blackman, an investor and advisor to tech startups, who reviewed The Transparency Company’s work and is set to lead the organization starting Jan. 1.

In August, software company DoubleVerify said it was observing a “significant increase” in mobile phone and smart TV apps with reviews crafted by generative AI. The reviews often were used to deceive customers into installing apps that could hijack devices or run ads constantly, the company said.

The following month, the Federal Trade Commission sued the company behind an AI writing tool and content generator called Rytr, accusing it of offering a service that could pollute the marketplace with fraudulent reviews.

The FTC, which this year banned the sale or purchase of fake reviews, said some of Rytr’s subscribers used the tool to produce hundreds and perhaps thousands of reviews for garage door repair companies, sellers of “replica” designer handbags and other businesses.

It’s likely on prominent online sites, too

Max Spero, CEO of AI detection company Pangram Labs, said the software his company uses has detected with almost certainty that some AI-generated appraisals posted on Amazon bubbled up to the top of review search results because they were so detailed and appeared to be well thought-out.

But determining what is fake or not can be challenging. External parties can fall short because they don’t have “access to data signals that indicate patterns of abuse,” Amazon has said.

Pangram Labs has done detection for some prominent online sites, which Spero declined to name due to non-disclosure agreements. He said he evaluated Amazon and Yelp independently.

Many of the AI-generated comments on Yelp appeared to be posted by individuals who were trying to publish enough reviews to earn an “Elite” badge, which is intended to let users know they should trust the content, Spero said.

The badge provides access to exclusive events with local business owners. Fraudsters also want it so their Yelp profiles can look more realistic, said Kay Dean, a former federal criminal investigator who runs a watchdog group called Fake Review Watch.

To be sure, just because a review is AI-generated doesn’t necessarily mean its fake. Some consumers might experiment with AI tools to generate content that reflects their genuine sentiments. Some non-native English speakers say they turn to AI to make sure they use accurate language in the reviews they write.

“It can help with reviews (and) make it more informative if it comes out of good intentions,” said Michigan State University marketing professor Sherry He, who has researched fake reviews. She says tech platforms should focus on the behavioral patters of bad actors, which prominent platforms already do, instead of discouraging legitimate users from turning to AI tools.

What companies are doing

Prominent companies are developing policies for how AI-generated content fits into their systems for removing phony or abusive reviews. Some already employ algorithms and investigative teams to detect and take down fake reviews but are giving users some flexibility to use AI.

Spokespeople for Amazon and Trustpilot, for example, said they would allow customers to post AI-assisted reviews as long as they reflect their genuine experience. Yelp has taken a more cautious approach, saying its guidelines require reviewers to write their own copy.

“With the recent rise in consumer adoption of AI tools, Yelp has significantly invested in methods to better detect and mitigate such content on our platform,” the company said in a statement.

The Coalition for Trusted Reviews, which Amazon, Trustpilot, employment review site Glassdoor, and travel sites Tripadvisor, Expedia and Booking.com launched last year, said that even though deceivers may put AI to illicit use, the technology also presents “an opportunity to push back against those who seek to use reviews to mislead others.”

“By sharing best practice and raising standards, including developing advanced AI detection systems, we can protect consumers and maintain the integrity of online reviews,” the group said.

The FTC’s rule banning fake reviews, which took effect in October, allows the agency to fine businesses and individuals who engage in the practice. Tech companies hosting such reviews are shielded from the penalty because they are not legally liable under U.S. law for the content that outsiders post on their platforms.

Tech companies, including Amazon, Yelp and Google, have sued fake review brokers they accuse of peddling counterfeit reviews on their sites. The companies say their technology has blocked or removed a huge swath of suspect reviews and suspicious accounts. However, some experts say they could be doing more.

“Their efforts thus far are not nearly enough,” said Dean of Fake Review Watch. “If these tech companies are so committed to eliminating review fraud on their platforms, why is it that I, one individual who works with no automation, can find hundreds or even thousands of fake reviews on any given day?”

Spotting fake AI-generated reviews

Consumers can try to spot fake reviews by watching out for a few possible warning signs, according to researchers. Overly enthusiastic or negative reviews are red flags. Jargon that repeats a product’s full name or model number is another potential giveaway.

When it comes to AI, research conducted by Balázs Kovács, a Yale professor of organization behavior, has shown that people can’t tell the difference between AI-generated and human-written reviews. Some AI detectors may also be fooled by shorter texts, which are common in online reviews, the study said.

However, there are some “AI tells” that online shoppers and service seekers should keep it mind. Panagram Labs says reviews written with AI are typically longer, highly structured and include “empty descriptors,” such as generic phrases and attributes. The writing also tends to include cliches like “the first thing that struck me” and “game-changer.”

more in original source https://apnews.com/article/fake-online-reviews-generative-ai-40f5000346b1894a778434ba295a0496