gen_ai_hub.evaluations.models.metric_config
index
/home/jenkins/agent/workspace/ation_generative-ai-hub-sdk_main/gen_ai_hub/evaluations/models/metric_config.py

 
Classes
       
builtins.object
MetricConfig
MetricRef

 
class MetricConfig(builtins.object)
    MetricConfig(reference: gen_ai_hub.evaluations.models.metric_config.MetricRef, variable_mapping: dict = None)
 
Defines the metric config of the evaluation flow
 
Parameters:
    reference(MetricRef): Provide the reference of metric to be evaluated, can be one of name,uuid(id), scenario/name/version
    variable_mapping(Optional[dict]): Any variable maping associated with the metric
 
  Methods defined here:
__init__(self, reference: gen_ai_hub.evaluations.models.metric_config.MetricRef, variable_mapping: dict = None)
Initialize self.  See help(type(self)) for accurate signature.

Data descriptors defined here:
__dict__
dictionary for instance variables (if defined)
__weakref__
list of weak references to the object (if defined)

 
class MetricRef(builtins.object)
    MetricRef(scenario: str = None, name: str = None, version: str = None, id: str = None)
 
Represents a reference to a specific metric definition.
 
A metric can be identified in multiple ways:
- By its UUID from metric management service (`id`)
- By name (`name`)
- By a combination of scenario, name, and version (`scenario`, `name`, `version`)
 
  Methods defined here:
__init__(self, scenario: str = None, name: str = None, version: str = None, id: str = None)
Initialize self.  See help(type(self)) for accurate signature.

Data descriptors defined here:
__dict__
dictionary for instance variables (if defined)
__weakref__
list of weak references to the object (if defined)