Wir nehmen Vorurteile sehr ernst. Scopus AI stützt sich ausschließlich auf die akademischen Inhalte in Scopus und sorgt für Transparenz, indem es direkt auf die Zusammenfassungen verweist, die hinter den Behauptungen des Tools stehen. Unsere Vektorsuchmaschine verwendet die Kosinus-Ähnlichkeit, um herauszufinden, welche Abstracts am ehesten zu Ihrer Suchanfrage passen, anstatt die Artikel zu bevorzugen, die in bestimmten einflussreichen Zeitschriften am häufigsten zitiert oder veröffentlicht werden. Wenn Ihre Anfrage jedoch stark verzerrt ist, kann sich dies in der Antwort widerspiegeln. Selbst wenn Ihre Frage neutral ist, kann es in den Scopus-Dokumenten, die die KI für ihre Antwort identifiziert, Verzerrungen geben.
Eine der Möglichkeiten, dies zu mildern, besteht darin, Scopus AI anhand von zwei strengen Bewertungsrahmen zu testen. Insbesondere bei einem muss Scopus AI Fragen beantworten, die mit Bereichen potenzieller Voreingenommenheit verbunden sind, damit wir unangemessene Antworten identifizieren und minimieren können. Und wir testen den Dienst aktiv, um Antworten zu finden, die unfaire Vorurteile schaffen oder verstärken, die sowohl auf internen als auch auf externen Anfragen basieren, wie z. B. Quoras Klassifizierung unaufrichtiger Fragen.
Unser Prompt Engineering weist das LLM an, "unsichere" Antworten herauszufiltern, die Vorurteile, Schäden oder Stereotypen gegen Personen mit unterschiedlichem Hintergrund aufrechterhalten.